@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.266

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +1 -0
  4. package/locales/ar/modelProvider.json +20 -0
  5. package/locales/ar/models.json +33 -10
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/providers.json +1 -0
  8. package/locales/ar/setting.json +2 -0
  9. package/locales/bg-BG/chat.json +1 -0
  10. package/locales/bg-BG/modelProvider.json +20 -0
  11. package/locales/bg-BG/models.json +27 -7
  12. package/locales/bg-BG/plugin.json +1 -0
  13. package/locales/bg-BG/providers.json +1 -0
  14. package/locales/bg-BG/setting.json +2 -0
  15. package/locales/de-DE/chat.json +1 -0
  16. package/locales/de-DE/modelProvider.json +20 -0
  17. package/locales/de-DE/models.json +44 -10
  18. package/locales/de-DE/plugin.json +1 -0
  19. package/locales/de-DE/providers.json +1 -0
  20. package/locales/de-DE/setting.json +2 -0
  21. package/locales/en-US/chat.json +1 -0
  22. package/locales/en-US/modelProvider.json +20 -0
  23. package/locales/en-US/models.json +10 -10
  24. package/locales/en-US/providers.json +1 -0
  25. package/locales/en-US/setting.json +2 -1
  26. package/locales/es-ES/chat.json +1 -0
  27. package/locales/es-ES/modelProvider.json +20 -0
  28. package/locales/es-ES/models.json +53 -10
  29. package/locales/es-ES/plugin.json +1 -0
  30. package/locales/es-ES/providers.json +1 -0
  31. package/locales/es-ES/setting.json +2 -0
  32. package/locales/fa-IR/chat.json +1 -0
  33. package/locales/fa-IR/modelProvider.json +20 -0
  34. package/locales/fa-IR/models.json +33 -10
  35. package/locales/fa-IR/plugin.json +1 -0
  36. package/locales/fa-IR/providers.json +1 -0
  37. package/locales/fa-IR/setting.json +2 -0
  38. package/locales/fr-FR/chat.json +1 -0
  39. package/locales/fr-FR/modelProvider.json +20 -0
  40. package/locales/fr-FR/models.json +27 -7
  41. package/locales/fr-FR/plugin.json +1 -0
  42. package/locales/fr-FR/providers.json +1 -0
  43. package/locales/fr-FR/setting.json +2 -0
  44. package/locales/it-IT/chat.json +1 -0
  45. package/locales/it-IT/modelProvider.json +20 -0
  46. package/locales/it-IT/models.json +10 -10
  47. package/locales/it-IT/plugin.json +1 -0
  48. package/locales/it-IT/providers.json +1 -0
  49. package/locales/it-IT/setting.json +2 -0
  50. package/locales/ja-JP/chat.json +1 -0
  51. package/locales/ja-JP/modelProvider.json +20 -0
  52. package/locales/ja-JP/models.json +5 -10
  53. package/locales/ja-JP/plugin.json +1 -0
  54. package/locales/ja-JP/providers.json +1 -0
  55. package/locales/ja-JP/setting.json +2 -0
  56. package/locales/ko-KR/chat.json +1 -0
  57. package/locales/ko-KR/modelProvider.json +20 -0
  58. package/locales/ko-KR/models.json +36 -10
  59. package/locales/ko-KR/plugin.json +1 -0
  60. package/locales/ko-KR/providers.json +1 -0
  61. package/locales/ko-KR/setting.json +2 -0
  62. package/locales/nl-NL/chat.json +1 -0
  63. package/locales/nl-NL/modelProvider.json +20 -0
  64. package/locales/nl-NL/models.json +35 -4
  65. package/locales/nl-NL/plugin.json +1 -0
  66. package/locales/nl-NL/providers.json +1 -0
  67. package/locales/nl-NL/setting.json +2 -0
  68. package/locales/pl-PL/chat.json +1 -0
  69. package/locales/pl-PL/modelProvider.json +20 -0
  70. package/locales/pl-PL/models.json +37 -7
  71. package/locales/pl-PL/plugin.json +1 -0
  72. package/locales/pl-PL/providers.json +1 -0
  73. package/locales/pl-PL/setting.json +2 -0
  74. package/locales/pt-BR/chat.json +1 -0
  75. package/locales/pt-BR/modelProvider.json +20 -0
  76. package/locales/pt-BR/models.json +51 -9
  77. package/locales/pt-BR/plugin.json +1 -0
  78. package/locales/pt-BR/providers.json +1 -0
  79. package/locales/pt-BR/setting.json +2 -0
  80. package/locales/ru-RU/chat.json +1 -0
  81. package/locales/ru-RU/modelProvider.json +20 -0
  82. package/locales/ru-RU/models.json +48 -7
  83. package/locales/ru-RU/plugin.json +1 -0
  84. package/locales/ru-RU/providers.json +1 -0
  85. package/locales/ru-RU/setting.json +2 -0
  86. package/locales/tr-TR/chat.json +1 -0
  87. package/locales/tr-TR/modelProvider.json +20 -0
  88. package/locales/tr-TR/models.json +48 -7
  89. package/locales/tr-TR/plugin.json +1 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/tr-TR/setting.json +2 -0
  92. package/locales/vi-VN/chat.json +1 -0
  93. package/locales/vi-VN/modelProvider.json +20 -0
  94. package/locales/vi-VN/models.json +5 -5
  95. package/locales/vi-VN/plugin.json +1 -0
  96. package/locales/vi-VN/providers.json +1 -0
  97. package/locales/vi-VN/setting.json +2 -0
  98. package/locales/zh-CN/modelProvider.json +20 -20
  99. package/locales/zh-CN/models.json +49 -8
  100. package/locales/zh-CN/providers.json +1 -0
  101. package/locales/zh-CN/setting.json +2 -1
  102. package/locales/zh-TW/chat.json +1 -0
  103. package/locales/zh-TW/modelProvider.json +20 -0
  104. package/locales/zh-TW/models.json +29 -10
  105. package/locales/zh-TW/plugin.json +1 -0
  106. package/locales/zh-TW/providers.json +1 -0
  107. package/locales/zh-TW/setting.json +2 -0
  108. package/package.json +1 -1
  109. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
  110. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
  111. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
  112. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
  113. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
  114. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
  115. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
  116. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
  117. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
  118. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
  119. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
  120. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
  121. package/src/components/InlineRename/index.tsx +121 -0
  122. package/src/features/NavPanel/components/NavItem.tsx +1 -1
  123. package/src/locales/default/setting.ts +2 -0
  124. package/src/store/agent/slices/cron/action.ts +108 -0
  125. package/src/store/agent/slices/cron/index.ts +1 -0
  126. package/src/store/agent/store.ts +3 -0
  127. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
  128. package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
  129. package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "نام استقرار مدل",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "نام نمایشی مدل را وارد کنید، مانند ChatGPT، GPT-4 و غیره",
196
196
  "providerModels.item.modelConfig.displayName.title": "نام نمایشی مدل",
197
+ "providerModels.item.modelConfig.extendParams.extra": "پارامترهای پیشرفته‌ای را که توسط مدل پشتیبانی می‌شوند انتخاب کنید. برای پیش‌نمایش کنترل‌ها، نشانگر را روی گزینه‌ها نگه دارید. پیکربندی‌های نادرست ممکن است باعث شکست درخواست شوند.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "برای مدل‌های Claude؛ می‌تواند هزینه را کاهش داده و پاسخ‌ها را سریع‌تر کند.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "برای مدل‌های Claude، DeepSeek و سایر مدل‌های استدلالی؛ امکان تفکر عمیق‌تر را فراهم می‌کند.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "برای سری GPT-5؛ شدت استدلال را کنترل می‌کند.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "برای سری GPT-5.1؛ شدت استدلال را کنترل می‌کند.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "برای سری GPT-5.2 Pro؛ شدت استدلال را کنترل می‌کند.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "برای سری GPT-5.2؛ شدت استدلال را کنترل می‌کند.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "برای مدل‌های تولید تصویر Gemini؛ نسبت تصویر خروجی را کنترل می‌کند.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "برای مدل‌های تولید تصویر Gemini 3؛ وضوح تصویر تولیدی را کنترل می‌کند.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "برای Claude، Qwen3 و مدل‌های مشابه؛ بودجه توکن برای استدلال را کنترل می‌کند.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "برای مدل‌های OpenAI و سایر مدل‌های دارای توانایی استدلال؛ میزان تلاش استدلالی را کنترل می‌کند.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "برای سری GPT-5+؛ میزان تفصیل خروجی را کنترل می‌کند.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "برای برخی مدل‌های Doubao؛ به مدل اجازه می‌دهد تصمیم بگیرد که آیا عمیق فکر کند یا نه.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "برای سری Gemini؛ بودجه تفکر را کنترل می‌کند.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Flash؛ عمق تفکر را کنترل می‌کند.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Pro؛ عمق تفکر را کنترل می‌کند.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "برای سری Gemini؛ امکان ارائه زمینه از طریق URL را فراهم می‌کند.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "پارامترهای پیشرفته‌ای را برای فعال‌سازی انتخاب کنید",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "پیش‌نمایش در دسترس نیست",
216
+ "providerModels.item.modelConfig.extendParams.title": "پارامترهای پیشرفته",
197
217
  "providerModels.item.modelConfig.files.extra": "پیاده‌سازی فعلی آپلود فایل فقط یک راه‌حل موقتی است و محدود به آزمایش شخصی می‌باشد. لطفاً منتظر قابلیت کامل آپلود فایل در نسخه‌های آینده باشید.",
198
218
  "providerModels.item.modelConfig.files.title": "پشتیبانی از آپلود فایل",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "این پیکربندی فقط قابلیت استفاده از ابزارها را برای مدل فعال می‌کند. اما استفاده واقعی از ابزارها به خود مدل بستگی دارد؛ لطفاً قابلیت استفاده را خودتان آزمایش کنید.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های متعددی را بهبود داده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet در زمینه‌های برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته را با کنترل دقیق ارائه می‌دهد.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته همراه است.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر عمیق ارائه می‌شود.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته را با کنترل دقیق برای کاربران API ارائه می‌دهد.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "مدلی متن‌باز جدید که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت برنامه‌نویسی مدل کدنویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره تفکر ایجاد می‌کند تا دقت بالاتری داشته باشد. این مدل در رقابت‌های برتر نتایج عالی کسب کرده و استدلالی در حد Gemini-3.0-Pro ارائه می‌دهد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
473
473
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل از طریق دستورات را ممکن می‌سازد.",
475
475
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
480
480
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
482
- "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
483
- "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
482
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
483
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با توانایی بالا در رندر متن چینی و سبک‌های بصری متنوع.",
484
484
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
485
485
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
486
486
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -583,6 +583,29 @@
583
583
  "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) مدل تولید تصویر گوگل با پشتیبانی از گفت‌وگوی چندوجهی است.",
584
584
  "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite نسخه سبک Gemini 2.5 است که برای تأخیر کم و هزینه پایین بهینه شده و برای سناریوهای با حجم بالا مناسب است.",
585
585
  "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash پیشرفته‌ترین مدل پرچم‌دار گوگل است که برای استدلال پیشرفته، برنامه‌نویسی، ریاضی و علوم طراحی شده است. این مدل دارای قابلیت تفکر داخلی است تا پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تر ارائه دهد.",
586
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash پیشرفته‌ترین مدل پرچم‌دار گوگل است که برای وظایف استدلالی، برنامه‌نویسی، ریاضی و علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تر ارائه می‌دهد.\n\nتوجه: این مدل دو نسخه دارد — با تفکر و بدون تفکر. قیمت‌گذاری خروجی به‌طور قابل توجهی بسته به فعال بودن تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند “:thinking”) را انتخاب کنید، مدل به‌طور صریح از تولید توکن‌های تفکر خودداری می‌کند.\n\nبرای استفاده از تفکر و دریافت توکن‌های تفکر، باید نسخه “:thinking” را انتخاب کنید که هزینه بیشتری دارد.\n\nGemini 2.5 Flash همچنین می‌تواند از طریق پارامتر “max reasoning tokens” پیکربندی شود (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) خانواده‌ای از مدل‌های گوگل است که از تأخیر کم تا استدلال با عملکرد بالا را پوشش می‌دهد.",
588
+ "google/gemini-2.5-pro-free.description": "نسخه رایگان Gemini 2.5 Pro با سهمیه محدود، پشتیبانی از ورودی چندحالته و زمینه طولانی، مناسب برای آزمایش و جریان‌های کاری سبک.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل تفکر گوگل برای استدلال در مسائل پیچیده کد، ریاضی و علوم است و برای تحلیل مجموعه داده‌های بزرگ، پایگاه‌های کد و اسناد با زمینه طولانی مناسب است.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro مدل پرچم‌دار استدلالی گوگل با پشتیبانی از زمینه طولانی برای وظایف پیچیده است.",
591
+ "google/gemini-3-pro-image-preview-free.description": "نسخه رایگان Gemini 3 Pro Image با سهمیه محدود برای تولید چندحالته.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل با پشتیبانی از مکالمه چندحالته است.",
593
+ "google/gemini-3-pro-preview-free.description": "نسخه رایگان Gemini 3 Pro Preview همان درک و استدلال چندحالته نسخه استاندارد را ارائه می‌دهد، اما با محدودیت سهمیه و نرخ، مناسب برای آزمایش و استفاده کم‌تکرار است.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro نسل بعدی مدل استدلال چندحالته در خانواده Gemini است که متن، صدا، تصویر و ویدیو را درک می‌کند و وظایف پیچیده و پایگاه‌های کد بزرگ را مدیریت می‌کند.",
595
+ "google/gemini-embedding-001.description": "مدل جاسازی پیشرفته با عملکرد قوی در وظایف انگلیسی، چندزبانه و کدنویسی.",
596
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash پردازش چندحالته بهینه‌شده برای طیف وسیعی از وظایف پیچیده را ارائه می‌دهد.",
597
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro آخرین بهینه‌سازی‌ها را برای پردازش کارآمدتر داده‌های چندحالته ترکیب می‌کند.",
598
+ "google/gemma-2-27b-it.description": "Gemma 2 27B یک مدل زبان عمومی با عملکرد قوی در سناریوهای مختلف است.",
599
+ "google/gemma-2-27b.description": "Gemma 2 خانواده مدل‌های کارآمد گوگل برای استفاده از برنامه‌های کوچک تا پردازش داده‌های پیچیده است.",
600
+ "google/gemma-2-2b-it.description": "مدل زبان کوچک پیشرفته طراحی‌شده برای برنامه‌های لبه‌ای.",
601
+ "google/gemma-2-9b-it.description": "Gemma 2 9B، توسعه‌یافته توسط گوگل، پیروی مؤثر از دستورالعمل‌ها و توانایی کلی قوی را ارائه می‌دهد.",
602
+ "google/gemma-2-9b-it:free.description": "Gemma 2 خانواده مدل‌های متن سبک و متن‌باز گوگل است.",
603
+ "google/gemma-2-9b.description": "Gemma 2 خانواده مدل‌های کارآمد گوگل برای استفاده از برنامه‌های کوچک تا پردازش داده‌های پیچیده است.",
604
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) مدیریت پایه‌ای دستورالعمل‌ها را برای برنامه‌های سبک ارائه می‌دهد.",
605
+ "google/gemma-3-12b-it.description": "Gemma 3 12B یک مدل زبان متن‌باز گوگل است که استاندارد جدیدی برای کارایی و عملکرد تعیین می‌کند.",
606
+ "google/gemma-3-27b-it.description": "Gemma 3 27B یک مدل زبان متن‌باز گوگل است که استاندارد جدیدی برای کارایی و عملکرد تعیین می‌کند.",
607
+ "google/text-embedding-005.description": "مدل جاسازی متن متمرکز بر زبان انگلیسی که برای وظایف کد و زبان انگلیسی بهینه شده است.",
608
+ "google/text-multilingual-embedding-002.description": "مدل جاسازی متن چندزبانه بهینه‌شده برای وظایف میان‌زبانی در زبان‌های مختلف.",
586
609
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
587
610
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
588
611
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "نتیجه‌ای یافت نشد",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "سیستم محلی",
95
+ "builtins.lobe-notebook.actions.collapse": "جمع کردن",
95
96
  "builtins.lobe-notebook.actions.copy": "کپی",
96
97
  "builtins.lobe-notebook.actions.creating": "در حال ایجاد سند...",
97
98
  "builtins.lobe-notebook.actions.edit": "ویرایش",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
+ "lobehub.description": "LobeHub Cloud از رابط‌های رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
32
33
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
33
34
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
34
35
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "حداکثر دفعات اجرا",
34
34
  "agentCronJobs.name": "نام وظیفه",
35
35
  "agentCronJobs.never": "هرگز",
36
+ "agentCronJobs.noExecutionResults": "نتیجه‌ای از اجرا موجود نیست",
36
37
  "agentCronJobs.remainingExecutions": "باقی‌مانده: {{count}}",
37
38
  "agentCronJobs.save": "ذخیره",
38
39
  "agentCronJobs.schedule": "زمان‌بندی",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "بازه زمانی",
43
44
  "agentCronJobs.title": "وظایف زمان‌بندی‌شده",
44
45
  "agentCronJobs.unlimited": "نامحدود",
46
+ "agentCronJobs.unnamedTask": "وظیفه بدون نام",
45
47
  "agentCronJobs.updateSuccess": "وظیفه زمان‌بندی‌شده با موفقیت به‌روزرسانی شد",
46
48
  "agentCronJobs.weekdays": "روزهای هفته",
47
49
  "agentInfoDescription.basic.avatar": "آواتار",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Intensité de la réflexion",
64
64
  "extendParams.textVerbosity.title": "Niveau de détail du texte généré",
65
65
  "extendParams.thinking.title": "Interrupteur de réflexion approfondie",
66
+ "extendParams.thinkingBudget.title": "Budget de réflexion",
66
67
  "extendParams.thinkingLevel.title": "Niveau de réflexion",
67
68
  "extendParams.title": "Fonctionnalités d’extension du modèle",
68
69
  "extendParams.urlContext.desc": "Lorsqu’il est activé, les liens web sont automatiquement analysés pour extraire le contenu réel de la page",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Nom de déploiement du modèle",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Veuillez saisir le nom d'affichage du modèle, par ex. ChatGPT, GPT-4, etc.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Nom d'affichage du modèle",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Choisissez les paramètres étendus pris en charge par le modèle. Survolez une option pour prévisualiser les contrôles. Des configurations incorrectes peuvent entraîner des échecs de requête.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Pour les modèles Claude ; peut réduire les coûts et accélérer les réponses.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Pour Claude, DeepSeek et autres modèles de raisonnement ; active une réflexion plus approfondie.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Pour la série GPT-5 ; contrôle l’intensité du raisonnement.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Pour la série GPT-5.1 ; contrôle l’intensité du raisonnement.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Pour la série GPT-5.2 Pro ; contrôle l’intensité du raisonnement.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Pour la série GPT-5.2 ; contrôle l’intensité du raisonnement.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Pour les modèles de génération d’images Gemini ; contrôle le format d’image généré.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Pour les modèles de génération d’images Gemini 3 ; contrôle la résolution des images générées.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Pour Claude, Qwen3 et similaires ; contrôle le budget de jetons pour le raisonnement.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Pour OpenAI et autres modèles capables de raisonnement ; contrôle l’effort de raisonnement.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Pour la série GPT-5+ ; contrôle la verbosité de la sortie.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Pour certains modèles Doubao ; permet au modèle de décider s’il doit réfléchir en profondeur.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Pour la série Gemini ; contrôle le budget de réflexion.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Pour les modèles Gemini 3 Flash Preview ; contrôle la profondeur de réflexion.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Pour les modèles Gemini 3 Pro Preview ; contrôle la profondeur de réflexion.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Pour la série Gemini ; permet de fournir un contexte via une URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Sélectionnez les paramètres étendus à activer",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Aperçu non disponible",
216
+ "providerModels.item.modelConfig.extendParams.title": "Paramètres étendus",
197
217
  "providerModels.item.modelConfig.files.extra": "L'implémentation actuelle du téléversement de fichiers est une solution temporaire, limitée à l'expérimentation personnelle. Veuillez attendre les fonctionnalités complètes dans les futures versions.",
198
218
  "providerModels.item.modelConfig.files.title": "Prise en charge du téléversement de fichiers",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Cette configuration activera uniquement la capacité du modèle à utiliser des outils. L'utilisation effective dépend entièrement du modèle lui-même ; veuillez tester sa compatibilité.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le plus grand modèle précédent, Claude 3 Opus, sur de nombreux tests d’intelligence.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Les benchmarks publics atteignent le niveau de GPT-5, et c’est le premier à intégrer la réflexion dans l’utilisation d’outils, menant les évaluations open source d’agents.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les réponses pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -471,6 +471,26 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d’images de haute qualité et hautement contrôlable à partir d’invites.",
475
+ "fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] est un modèle de génération d’images à 12 milliards de paramètres conçu pour une sortie rapide et de haute qualité.",
479
+ "fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
480
+ "fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
482
+ "fal-ai/qwen-image-edit.description": "Modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
483
+ "fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen avec un excellent rendu du texte chinois et une grande diversité de styles visuels.",
484
+ "flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
486
+ "flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
487
+ "flux-kontext-pro.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
488
+ "flux-merged.description": "FLUX.1-merged combine les fonctionnalités approfondies explorées dans « DEV » avec les avantages de vitesse de « Schnell », repoussant les limites de performance et élargissant les cas d’usage.",
489
+ "flux-pro-1.1-ultra.description": "Génération d’images ultra haute résolution avec une sortie de 4MP, produisant des images nettes en 10 secondes.",
490
+ "flux-pro-1.1.description": "Modèle de génération d’images de niveau professionnel amélioré avec une excellente qualité d’image et un respect précis des invites.",
491
+ "flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
474
494
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
475
495
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
476
496
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Système local",
95
+ "builtins.lobe-notebook.actions.collapse": "Réduire",
95
96
  "builtins.lobe-notebook.actions.copy": "Copier",
96
97
  "builtins.lobe-notebook.actions.creating": "Création du document...",
97
98
  "builtins.lobe-notebook.actions.edit": "Modifier",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
+ "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation en Crédits liés aux jetons des modèles.",
32
33
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
33
34
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
34
35
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Exécutions maximales",
34
34
  "agentCronJobs.name": "Nom de la tâche",
35
35
  "agentCronJobs.never": "Jamais",
36
+ "agentCronJobs.noExecutionResults": "Aucun résultat d'exécution",
36
37
  "agentCronJobs.remainingExecutions": "Restant : {{count}}",
37
38
  "agentCronJobs.save": "Enregistrer",
38
39
  "agentCronJobs.schedule": "Planifier",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Plage horaire",
43
44
  "agentCronJobs.title": "Tâches planifiées",
44
45
  "agentCronJobs.unlimited": "Illimité",
46
+ "agentCronJobs.unnamedTask": "Tâche sans nom",
45
47
  "agentCronJobs.updateSuccess": "Tâche planifiée mise à jour avec succès",
46
48
  "agentCronJobs.weekdays": "Jours de la semaine",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Intensità del Ragionamento",
64
64
  "extendParams.textVerbosity.title": "Livello di Dettaglio del Testo",
65
65
  "extendParams.thinking.title": "Interruttore Pensiero Profondo",
66
+ "extendParams.thinkingBudget.title": "Budget di Riflessione",
66
67
  "extendParams.thinkingLevel.title": "Livello di Pensiero",
67
68
  "extendParams.title": "Funzionalità Estese del Modello",
68
69
  "extendParams.urlContext.desc": "Se abilitato, i link web verranno automaticamente analizzati per recuperare il contenuto della pagina",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Nome distribuzione modello",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Inserisci il nome visualizzato del modello, ad es. ChatGPT, GPT-4, ecc.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Nome visualizzato del modello",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Scegli i parametri estesi supportati dal modello. Passa il mouse su un'opzione per visualizzare l'anteprima dei controlli. Configurazioni errate possono causare errori nella richiesta.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Per i modelli Claude; può ridurre i costi e velocizzare le risposte.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Per Claude, DeepSeek e altri modelli di ragionamento; abilita un pensiero più profondo.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Per la serie GPT-5; controlla l'intensità del ragionamento.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Per la serie GPT-5.1; controlla l'intensità del ragionamento.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Per la serie GPT-5.2 Pro; controlla l'intensità del ragionamento.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Per la serie GPT-5.2; controlla l'intensità del ragionamento.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Per i modelli di generazione immagini Gemini; controlla il rapporto d'aspetto delle immagini generate.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Per i modelli di generazione immagini Gemini 3; controlla la risoluzione delle immagini generate.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Per Claude, Qwen3 e simili; controlla il budget di token per il ragionamento.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Per OpenAI e altri modelli con capacità di ragionamento; controlla lo sforzo di ragionamento.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Per la serie GPT-5+; controlla la verbosità dell'output.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Per alcuni modelli Doubao; consente al modello di decidere se pensare in profondità.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Per la serie Gemini; controlla il budget di pensiero.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Per i modelli Gemini 3 Flash Preview; controlla la profondità del pensiero.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Per i modelli Gemini 3 Pro Preview; controlla la profondità del pensiero.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Per la serie Gemini; supporta il contesto tramite URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Seleziona i parametri estesi da abilitare",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Anteprima non disponibile",
216
+ "providerModels.item.modelConfig.extendParams.title": "Parametri Estesi",
197
217
  "providerModels.item.modelConfig.files.extra": "L'attuale implementazione del caricamento file è una soluzione temporanea, limitata alla sperimentazione personale. Le funzionalità complete saranno disponibili in futuro.",
198
218
  "providerModels.item.modelConfig.files.title": "Supporto caricamento file",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Questa configurazione abilita solo la capacità del modello di utilizzare strumenti. L'effettiva usabilità dipende interamente dal modello stesso; testare in autonomia.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
272
272
  "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
273
273
  "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti estesi passo dopo passo visibili all’utente. Sonnet eccelle in particolare nella programmazione, data science, visione artificiale e compiti per agenti.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con un controllo preciso.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di ragionamento estese.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero prolungato.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti articolati passo dopo passo con un processo visibile.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, in grado di offrire risposte quasi istantanee o ragionamenti passo-passo estesi con un controllo dettagliato per gli utenti API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
289
289
  "codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
358
- "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello conversazionale e la forte abilità di codifica del modello per sviluppatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e la comprensione delle istruzioni.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell’output per attività quotidiane di domande e risposte e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell’uso degli strumenti, guidando le valutazioni open-source degli agenti.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
381
- "deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamento prima della risposta finale per migliorarne l’accuratezza.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore accuratezza, con risultati di alto livello e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con una generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini di alta qualità e altamente controllabile a partire da prompt.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
480
480
  "fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
482
- "fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
483
- "fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con una resa impressionante del testo cinese e stili visivi diversificati.",
482
+ "fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e visive, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro ancora.",
483
+ "fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen, con eccellente resa del testo cinese e stili visivi diversificati.",
484
484
  "flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
485
485
  "flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
486
486
  "flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Nessun risultato",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Locale",
95
+ "builtins.lobe-notebook.actions.collapse": "Comprimi",
95
96
  "builtins.lobe-notebook.actions.copy": "Copia",
96
97
  "builtins.lobe-notebook.actions.creating": "Creazione del documento in corso...",
97
98
  "builtins.lobe-notebook.actions.edit": "Modifica",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
30
30
  "jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
31
31
  "lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
32
+ "lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
32
33
  "minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
33
34
  "mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
34
35
  "modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Esecuzioni massime",
34
34
  "agentCronJobs.name": "Nome attività",
35
35
  "agentCronJobs.never": "Mai",
36
+ "agentCronJobs.noExecutionResults": "Nessun risultato di esecuzione",
36
37
  "agentCronJobs.remainingExecutions": "Rimanenti: {{count}}",
37
38
  "agentCronJobs.save": "Salva",
38
39
  "agentCronJobs.schedule": "Pianifica",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Intervallo di tempo",
43
44
  "agentCronJobs.title": "Attività pianificate",
44
45
  "agentCronJobs.unlimited": "Illimitato",
46
+ "agentCronJobs.unnamedTask": "Attività senza nome",
45
47
  "agentCronJobs.updateSuccess": "Attività pianificata aggiornata con successo",
46
48
  "agentCronJobs.weekdays": "Giorni feriali",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "推論強度",
64
64
  "extendParams.textVerbosity.title": "出力詳細度",
65
65
  "extendParams.thinking.title": "深い思考スイッチ",
66
+ "extendParams.thinkingBudget.title": "思考予算",
66
67
  "extendParams.thinkingLevel.title": "思考レベル",
67
68
  "extendParams.title": "モデル拡張機能",
68
69
  "extendParams.urlContext.desc": "有効にすると、ウェブリンクを自動解析し、ウェブページのコンテキストをコンテキストとして抽出します",