@lobehub/lobehub 2.0.0-next.253 → 2.0.0-next.254

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (91) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/discover.json +3 -0
  4. package/locales/ar/file.json +2 -0
  5. package/locales/ar/models.json +38 -10
  6. package/locales/ar/providers.json +0 -1
  7. package/locales/ar/setting.json +42 -0
  8. package/locales/bg-BG/discover.json +3 -0
  9. package/locales/bg-BG/file.json +2 -0
  10. package/locales/bg-BG/models.json +36 -7
  11. package/locales/bg-BG/providers.json +0 -1
  12. package/locales/bg-BG/setting.json +43 -1
  13. package/locales/de-DE/discover.json +3 -0
  14. package/locales/de-DE/file.json +2 -0
  15. package/locales/de-DE/models.json +45 -10
  16. package/locales/de-DE/providers.json +0 -1
  17. package/locales/de-DE/setting.json +43 -1
  18. package/locales/en-US/discover.json +3 -0
  19. package/locales/en-US/models.json +10 -10
  20. package/locales/en-US/providers.json +0 -1
  21. package/locales/en-US/setting.json +43 -1
  22. package/locales/es-ES/discover.json +3 -0
  23. package/locales/es-ES/file.json +2 -0
  24. package/locales/es-ES/models.json +49 -10
  25. package/locales/es-ES/providers.json +0 -1
  26. package/locales/es-ES/setting.json +43 -1
  27. package/locales/fa-IR/discover.json +3 -0
  28. package/locales/fa-IR/file.json +2 -0
  29. package/locales/fa-IR/models.json +39 -10
  30. package/locales/fa-IR/providers.json +0 -1
  31. package/locales/fa-IR/setting.json +43 -1
  32. package/locales/fr-FR/discover.json +3 -0
  33. package/locales/fr-FR/file.json +2 -0
  34. package/locales/fr-FR/models.json +36 -7
  35. package/locales/fr-FR/providers.json +0 -1
  36. package/locales/fr-FR/setting.json +42 -0
  37. package/locales/it-IT/discover.json +3 -0
  38. package/locales/it-IT/file.json +2 -0
  39. package/locales/it-IT/models.json +45 -10
  40. package/locales/it-IT/providers.json +0 -1
  41. package/locales/it-IT/setting.json +42 -0
  42. package/locales/ja-JP/discover.json +3 -0
  43. package/locales/ja-JP/file.json +2 -0
  44. package/locales/ja-JP/models.json +42 -7
  45. package/locales/ja-JP/providers.json +0 -1
  46. package/locales/ja-JP/setting.json +42 -0
  47. package/locales/ko-KR/discover.json +3 -0
  48. package/locales/ko-KR/file.json +2 -0
  49. package/locales/ko-KR/models.json +48 -7
  50. package/locales/ko-KR/providers.json +0 -1
  51. package/locales/ko-KR/setting.json +42 -0
  52. package/locales/nl-NL/discover.json +3 -0
  53. package/locales/nl-NL/file.json +2 -0
  54. package/locales/nl-NL/models.json +4 -6
  55. package/locales/nl-NL/providers.json +0 -1
  56. package/locales/nl-NL/setting.json +42 -0
  57. package/locales/pl-PL/discover.json +3 -0
  58. package/locales/pl-PL/file.json +2 -0
  59. package/locales/pl-PL/models.json +36 -7
  60. package/locales/pl-PL/providers.json +0 -1
  61. package/locales/pl-PL/setting.json +43 -1
  62. package/locales/pt-BR/discover.json +3 -0
  63. package/locales/pt-BR/file.json +2 -0
  64. package/locales/pt-BR/models.json +47 -6
  65. package/locales/pt-BR/providers.json +0 -1
  66. package/locales/pt-BR/setting.json +42 -0
  67. package/locales/ru-RU/discover.json +3 -0
  68. package/locales/ru-RU/file.json +2 -0
  69. package/locales/ru-RU/models.json +36 -7
  70. package/locales/ru-RU/providers.json +0 -1
  71. package/locales/ru-RU/setting.json +42 -0
  72. package/locales/tr-TR/discover.json +3 -0
  73. package/locales/tr-TR/file.json +2 -0
  74. package/locales/tr-TR/models.json +36 -5
  75. package/locales/tr-TR/providers.json +0 -1
  76. package/locales/tr-TR/setting.json +43 -1
  77. package/locales/vi-VN/discover.json +3 -0
  78. package/locales/vi-VN/file.json +2 -0
  79. package/locales/vi-VN/models.json +5 -5
  80. package/locales/vi-VN/providers.json +0 -1
  81. package/locales/vi-VN/setting.json +42 -0
  82. package/locales/zh-CN/discover.json +3 -3
  83. package/locales/zh-CN/models.json +38 -9
  84. package/locales/zh-CN/providers.json +0 -1
  85. package/locales/zh-CN/setting.json +42 -0
  86. package/locales/zh-TW/discover.json +3 -0
  87. package/locales/zh-TW/file.json +2 -0
  88. package/locales/zh-TW/models.json +54 -10
  89. package/locales/zh-TW/providers.json +0 -1
  90. package/locales/zh-TW/setting.json +42 -0
  91. package/package.json +1 -1
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Servicio de Modelo Oficial de {{name}}",
3
3
  "about.title": "Acerca de",
4
4
  "advancedSettings": "Configuración Avanzada",
5
+ "agentCronJobs.addJob": "Agregar tarea programada",
6
+ "agentCronJobs.confirmDelete": "¿Estás seguro de que deseas eliminar esta tarea programada?",
7
+ "agentCronJobs.content": "Contenido de la tarea",
8
+ "agentCronJobs.create": "Crear",
9
+ "agentCronJobs.createSuccess": "Tarea programada creada con éxito",
10
+ "agentCronJobs.deleteJob": "Eliminar tarea",
11
+ "agentCronJobs.deleteSuccess": "Tarea programada eliminada con éxito",
12
+ "agentCronJobs.description": "Automatiza tu agente con ejecuciones programadas",
13
+ "agentCronJobs.disable": "Desactivar",
14
+ "agentCronJobs.editJob": "Editar tarea programada",
15
+ "agentCronJobs.empty.description": "Crea tu primera tarea programada para automatizar tu agente",
16
+ "agentCronJobs.empty.title": "Aún no hay tareas programadas",
17
+ "agentCronJobs.enable": "Activar",
18
+ "agentCronJobs.form.content.placeholder": "Introduce la instrucción o el mensaje para el agente",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Dejar en blanco para ilimitado",
20
+ "agentCronJobs.form.name.placeholder": "Introduce el nombre de la tarea",
21
+ "agentCronJobs.form.timeRange.end": "Hora de finalización",
22
+ "agentCronJobs.form.timeRange.start": "Hora de inicio",
23
+ "agentCronJobs.form.validation.contentRequired": "El contenido de la tarea es obligatorio",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "La hora de inicio debe ser anterior a la hora de finalización",
25
+ "agentCronJobs.form.validation.nameRequired": "El nombre de la tarea es obligatorio",
26
+ "agentCronJobs.interval.12hours": "Cada 12 horas",
27
+ "agentCronJobs.interval.1hour": "Cada hora",
28
+ "agentCronJobs.interval.30min": "Cada 30 minutos",
29
+ "agentCronJobs.interval.6hours": "Cada 6 horas",
30
+ "agentCronJobs.interval.daily": "Diariamente",
31
+ "agentCronJobs.interval.weekly": "Semanalmente",
32
+ "agentCronJobs.lastExecuted": "Última ejecución",
33
+ "agentCronJobs.maxExecutions": "Máximo de ejecuciones",
34
+ "agentCronJobs.name": "Nombre de la tarea",
35
+ "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
+ "agentCronJobs.save": "Guardar",
38
+ "agentCronJobs.schedule": "Programar",
39
+ "agentCronJobs.status.depleted": "Agotado",
40
+ "agentCronJobs.status.disabled": "Desactivado",
41
+ "agentCronJobs.status.enabled": "Activado",
42
+ "agentCronJobs.timeRange": "Rango de tiempo",
43
+ "agentCronJobs.title": "Tareas programadas",
44
+ "agentCronJobs.unlimited": "Ilimitado",
45
+ "agentCronJobs.updateSuccess": "Tarea programada actualizada con éxito",
46
+ "agentCronJobs.weekdays": "Días laborables",
5
47
  "agentInfoDescription.basic.avatar": "Avatar",
6
48
  "agentInfoDescription.basic.description": "Descripción",
7
49
  "agentInfoDescription.basic.name": "Nombre",
@@ -46,7 +88,7 @@
46
88
  "danger.reset.action": "Restablecer Ahora",
47
89
  "danger.reset.confirm": "¿Restablecer todas las configuraciones?",
48
90
  "danger.reset.currentVersion": "Versión Actual",
49
- "danger.reset.desc": "Restaurar todas las configuraciones a los valores predeterminados. Tus datos no serán eliminados.",
91
+ "danger.reset.desc": "Restablecer todos los ajustes a los valores predeterminados. Tus datos no se eliminarán.",
50
92
  "danger.reset.success": "Todas las configuraciones han sido restablecidas",
51
93
  "danger.reset.title": "Restablecer Todas las Configuraciones",
52
94
  "defaultAgent.model.desc": "Modelo predeterminado utilizado al crear un nuevo Agente",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "خدمات تجاری",
157
157
  "mcp.categories.developer.description": "ابزارها و خدمات مرتبط با توسعه‌دهندگان",
158
158
  "mcp.categories.developer.name": "ابزارهای توسعه‌دهنده",
159
+ "mcp.categories.discover.description": "سرورهای پیشنهادی و پرطرفدار MCP",
160
+ "mcp.categories.discover.name": "کشف",
159
161
  "mcp.categories.gaming-entertainment.description": "بازی‌ها، سرگرمی و فعالیت‌های تفریحی",
160
162
  "mcp.categories.gaming-entertainment.name": "بازی و سرگرمی",
161
163
  "mcp.categories.health-wellness.description": "سلامت، تناسب اندام و تندرستی",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "مهارت‌های تأیید شده",
344
346
  "mcp.sorts.promptsCount": "تعداد پیشنهادها",
345
347
  "mcp.sorts.ratingCount": "تعداد امتیازها",
348
+ "mcp.sorts.recommended": "پیشنهادی",
346
349
  "mcp.sorts.resourcesCount": "تعداد منابع",
347
350
  "mcp.sorts.toolsCount": "تعداد ابزارها",
348
351
  "mcp.sorts.updatedAt": "تازه به‌روزرسانی شده",
@@ -18,6 +18,8 @@
18
18
  "empty": "هنوز هیچ فایل یا پوشه‌ای بارگذاری نشده است.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} فایل فیلتر شد (از مجموع {{total}})",
20
20
  "header.actions.connect": "اتصال...",
21
+ "header.actions.createFolderError": "ایجاد پوشه با خطا مواجه شد",
22
+ "header.actions.creatingFolder": "در حال ایجاد پوشه...",
21
23
  "header.actions.gitignore.apply": "اعمال قوانین",
22
24
  "header.actions.gitignore.cancel": "نادیده گرفتن قوانین",
23
25
  "header.actions.gitignore.content": "فایل .gitignore شناسایی شد (مجموعاً {{count}} فایل). آیا می‌خواهید قوانین نادیده‌گیری را اعمال کنید؟",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های بهبودیافته‌ای دارد و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته با کنترل دقیق را پشتیبانی می‌کند.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet در زمینه‌های برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده ارائه می‌شود.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته همراه است.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته با کنترل دقیق برای کاربران API ارائه می‌دهد.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
358
+ "deepseek-chat.description": "مدلی متن‌باز جدید که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت برنامه‌نویسی مدل کدنویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking مدلی برای استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت را افزایش دهد. این مدل در رقابت‌های برتر نتایج عالی کسب کرده و استدلالی هم‌تراز با Gemini-3.0-Pro دارد.",
381
+ "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
473
473
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، ورودی‌های متنی و تصویری را برای تولید تصاویر باکیفیت و قابل کنترل از طریق دستورات پشتیبانی می‌کند.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
475
475
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
480
480
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
482
- "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که ویرایش‌های معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر را پشتیبانی می‌کند.",
483
- "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
482
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
483
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
484
484
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
485
485
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
486
486
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -554,6 +554,35 @@
554
554
  "glm-4-plus.description": "GLM-4-Plus پرچم‌دار با هوش بالا است که در مدیریت متن‌های طولانی و وظایف پیچیده قوی عمل می‌کند و عملکرد کلی ارتقاء یافته‌ای دارد.",
555
555
  "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
556
556
  "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
557
+ "glm-4.5-air.description": "نسخه سبک GLM-4.5 که بین عملکرد و هزینه تعادل برقرار می‌کند و از حالت‌های تفکر ترکیبی انعطاف‌پذیر پشتیبانی می‌کند.",
558
+ "glm-4.5-airx.description": "نسخه سریع GLM-4.5-Air با پاسخ‌دهی سریع‌تر برای استفاده در مقیاس بالا و سرعت بالا.",
559
+ "glm-4.5-flash.description": "نسخه رایگان GLM-4.5 با عملکرد قوی در استدلال، برنامه‌نویسی و وظایف عامل‌ها.",
560
+ "glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
561
+ "glm-4.5.description": "مدل پرچم‌دار Zhipu با حالت تفکر قابل تغییر، ارائه‌دهنده بهترین عملکرد متن‌باز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
562
+ "glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدل‌های چندوجهی متن‌باز هم‌رده خود درک تصویر، ویدیو، اسناد و رابط‌های گرافیکی را به سطح SOTA می‌رساند.",
563
+ "glm-4.6.description": "GLM-4.6 پرچم‌دار جدید Zhipu (با ۳۵۵ میلیارد پارامتر) است که در برنامه‌نویسی پیشرفته، پردازش متون بلند، استدلال و توانایی‌های عامل‌ها به‌طور کامل از نسل قبل پیشی گرفته است. به‌ویژه در توانایی برنامه‌نویسی با Claude Sonnet 4 هم‌راستا شده و به یکی از برترین مدل‌های کدنویسی داخلی تبدیل شده است.",
564
+ "glm-4.7.description": "GLM-4.7 پرچم‌دار جدید Zhipu است که برای سناریوهای Agentic Coding توانایی‌های کدنویسی، برنامه‌ریزی وظایف بلندمدت و همکاری با ابزارها را تقویت کرده است. در بسیاری از رتبه‌بندی‌های عمومی، در میان مدل‌های متن‌باز پیشتاز است. توانایی‌های عمومی بهبود یافته، پاسخ‌ها طبیعی‌تر و نوشتار غنی‌تر شده‌اند. در اجرای وظایف پیچیده عامل‌ها و پیروی از دستورالعمل‌ها هنگام استفاده از ابزارها عملکرد بهتری دارد. زیبایی بصری در خروجی‌های Artifacts و کارایی در انجام وظایف بلندمدت نیز ارتقا یافته‌اند.",
565
+ "glm-4.description": "GLM-4 پرچم‌دار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قوی‌تر جایگزین شده است.",
566
+ "glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دسته‌ای مناسب است.",
567
+ "glm-4v-plus-0111.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
568
+ "glm-4v-plus.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
569
+ "glm-4v.description": "GLM-4V درک تصویر و استدلال قوی در وظایف بصری را ارائه می‌دهد.",
570
+ "glm-z1-air.description": "مدل استدلال با توانایی قوی در استنتاج عمیق برای وظایف پیچیده.",
571
+ "glm-z1-airx.description": "استدلال فوق‌سریع با کیفیت بالای استدلال.",
572
+ "glm-z1-flash.description": "سری GLM-Z1 استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.",
573
+ "glm-z1-flashx.description": "سریع و کم‌هزینه: نسخه Flash با استدلال فوق‌سریع و هم‌زمانی بیشتر.",
574
+ "glm-zero-preview.description": "GLM-Zero-Preview استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.",
575
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش استثنایی و عملکرد مقیاس‌پذیر را برای وظایف پیچیده با نیاز به پاسخ‌های باکیفیت و استدلال ترکیب می‌کند.",
576
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه‌ای ۱ میلیون توکن.",
577
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental جدیدترین مدل چندوجهی آزمایشی گوگل است که در مقایسه با نسخه‌های قبلی بهبودهایی در دانش عمومی، کدنویسی و زمینه بلند دارد.",
578
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite نسخه سبک Gemini است که به‌طور پیش‌فرض تفکر را غیرفعال کرده تا تأخیر و هزینه را کاهش دهد، اما می‌توان آن را از طریق پارامترها فعال کرد.",
579
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ویژگی‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت بالا، استفاده داخلی از ابزارها، تولید چندوجهی و پنجره زمینه‌ای ۱ میلیون توکن.",
580
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash مدل استدلال با عملکرد بالای گوگل برای وظایف چندوجهی گسترده است.",
581
+ "google/gemini-2.5-flash-image-free.description": "نسخه رایگان Gemini 2.5 Flash Image با سهمیه محدود برای تولید چندوجهی.",
582
+ "google/gemini-2.5-flash-image-preview.description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر.",
583
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) مدل تولید تصویر گوگل با پشتیبانی از گفت‌وگوی چندوجهی است.",
584
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite نسخه سبک Gemini 2.5 است که برای تأخیر کم و هزینه پایین بهینه شده و برای سناریوهای با حجم بالا مناسب است.",
585
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash پیشرفته‌ترین مدل پرچم‌دار گوگل است که برای استدلال پیشرفته، برنامه‌نویسی، ریاضی و علوم طراحی شده است. این مدل دارای قابلیت تفکر داخلی است تا پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تر ارائه دهد.",
557
586
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
558
587
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
559
588
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
- "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
33
32
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
34
33
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
35
34
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "سرویس مدل رسمی {{name}}",
3
3
  "about.title": "درباره",
4
4
  "advancedSettings": "تنظیمات پیشرفته",
5
+ "agentCronJobs.addJob": "افزودن وظیفه زمان‌بندی‌شده",
6
+ "agentCronJobs.confirmDelete": "آیا از حذف این وظیفه زمان‌بندی‌شده مطمئن هستید؟",
7
+ "agentCronJobs.content": "محتوای وظیفه",
8
+ "agentCronJobs.create": "ایجاد",
9
+ "agentCronJobs.createSuccess": "وظیفه زمان‌بندی‌شده با موفقیت ایجاد شد",
10
+ "agentCronJobs.deleteJob": "حذف وظیفه",
11
+ "agentCronJobs.deleteSuccess": "وظیفه زمان‌بندی‌شده با موفقیت حذف شد",
12
+ "agentCronJobs.description": "عامل خود را با اجرای زمان‌بندی‌شده خودکار کنید",
13
+ "agentCronJobs.disable": "غیرفعال کردن",
14
+ "agentCronJobs.editJob": "ویرایش وظیفه زمان‌بندی‌شده",
15
+ "agentCronJobs.empty.description": "اولین وظیفه زمان‌بندی‌شده خود را برای خودکارسازی عامل ایجاد کنید",
16
+ "agentCronJobs.empty.title": "هنوز وظیفه زمان‌بندی‌شده‌ای وجود ندارد",
17
+ "agentCronJobs.enable": "فعال کردن",
18
+ "agentCronJobs.form.content.placeholder": "دستور یا راهنمایی برای عامل وارد کنید",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "برای نامحدود خالی بگذارید",
20
+ "agentCronJobs.form.name.placeholder": "نام وظیفه را وارد کنید",
21
+ "agentCronJobs.form.timeRange.end": "زمان پایان",
22
+ "agentCronJobs.form.timeRange.start": "زمان شروع",
23
+ "agentCronJobs.form.validation.contentRequired": "محتوای وظیفه الزامی است",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "زمان شروع باید قبل از زمان پایان باشد",
25
+ "agentCronJobs.form.validation.nameRequired": "نام وظیفه الزامی است",
26
+ "agentCronJobs.interval.12hours": "هر ۱۲ ساعت",
27
+ "agentCronJobs.interval.1hour": "هر ساعت",
28
+ "agentCronJobs.interval.30min": "هر ۳۰ دقیقه",
29
+ "agentCronJobs.interval.6hours": "هر ۶ ساعت",
30
+ "agentCronJobs.interval.daily": "روزانه",
31
+ "agentCronJobs.interval.weekly": "هفتگی",
32
+ "agentCronJobs.lastExecuted": "آخرین اجرا",
33
+ "agentCronJobs.maxExecutions": "حداکثر دفعات اجرا",
34
+ "agentCronJobs.name": "نام وظیفه",
35
+ "agentCronJobs.never": "هرگز",
36
+ "agentCronJobs.remainingExecutions": "باقی‌مانده: {{count}}",
37
+ "agentCronJobs.save": "ذخیره",
38
+ "agentCronJobs.schedule": "زمان‌بندی",
39
+ "agentCronJobs.status.depleted": "پایان‌یافته",
40
+ "agentCronJobs.status.disabled": "غیرفعال",
41
+ "agentCronJobs.status.enabled": "فعال",
42
+ "agentCronJobs.timeRange": "بازه زمانی",
43
+ "agentCronJobs.title": "وظایف زمان‌بندی‌شده",
44
+ "agentCronJobs.unlimited": "نامحدود",
45
+ "agentCronJobs.updateSuccess": "وظیفه زمان‌بندی‌شده با موفقیت به‌روزرسانی شد",
46
+ "agentCronJobs.weekdays": "روزهای هفته",
5
47
  "agentInfoDescription.basic.avatar": "آواتار",
6
48
  "agentInfoDescription.basic.description": "توضیحات",
7
49
  "agentInfoDescription.basic.name": "نام",
@@ -46,7 +88,7 @@
46
88
  "danger.reset.action": "بازنشانی اکنون",
47
89
  "danger.reset.confirm": "آیا همه تنظیمات بازنشانی شوند؟",
48
90
  "danger.reset.currentVersion": "نسخه فعلی",
49
- "danger.reset.desc": "بازگرداندن همه تنظیمات به حالت پیش‌فرض. داده‌های شما حذف نخواهند شد.",
91
+ "danger.reset.desc": "بازگرداندن تمام تنظیمات به حالت پیش‌فرض. داده‌های شما حذف نخواهند شد.",
50
92
  "danger.reset.success": "همه تنظیمات بازنشانی شدند",
51
93
  "danger.reset.title": "بازنشانی همه تنظیمات",
52
94
  "defaultAgent.model.desc": "مدل پیش‌فرض هنگام ایجاد عامل جدید",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Services professionnels",
157
157
  "mcp.categories.developer.description": "Outils et services pour les développeurs",
158
158
  "mcp.categories.developer.name": "Outils développeur",
159
+ "mcp.categories.discover.description": "Serveurs MCP recommandés et populaires",
160
+ "mcp.categories.discover.name": "Découvrir",
159
161
  "mcp.categories.gaming-entertainment.description": "Jeux, divertissement et loisirs",
160
162
  "mcp.categories.gaming-entertainment.name": "Jeux & Divertissement",
161
163
  "mcp.categories.health-wellness.description": "Santé, forme physique et bien-être",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Compétences validées",
344
346
  "mcp.sorts.promptsCount": "Nombre d’invites",
345
347
  "mcp.sorts.ratingCount": "Nombre d’évaluations",
348
+ "mcp.sorts.recommended": "Recommandé",
346
349
  "mcp.sorts.resourcesCount": "Nombre de ressources",
347
350
  "mcp.sorts.toolsCount": "Nombre d’outils",
348
351
  "mcp.sorts.updatedAt": "Mis à jour récemment",
@@ -18,6 +18,8 @@
18
18
  "empty": "Aucun fichier ou dossier n’a encore été importé.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} fichiers filtrés (sur {{total}} au total)",
20
20
  "header.actions.connect": "Se connecter...",
21
+ "header.actions.createFolderError": "Échec de la création du dossier",
22
+ "header.actions.creatingFolder": "Création du dossier...",
21
23
  "header.actions.gitignore.apply": "Appliquer les règles",
22
24
  "header.actions.gitignore.cancel": "Ignorer les règles",
23
25
  "header.actions.gitignore.content": "Fichier .gitignore détecté ({{count}} fichiers au total). Souhaitez-vous appliquer les règles d’exclusion ?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations globales et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le plus grand modèle précédent, Claude 3 Opus, sur de nombreux tests d’intelligence.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, excelling en performance, intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l’utilisation d’outils, se classant en tête des évaluations open source d’agents.",
358
+ "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
444
444
  "emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B est un modèle léger open source conçu pour un déploiement local et personnalisé.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B est un modèle open source à grande capacité offrant une meilleure compréhension et génération.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B est le modèle MoE ultra-large d’ERNIE de Baidu, doté d’excellentes capacités de raisonnement.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview est un modèle de prévisualisation avec contexte 8K pour l’évaluation d’ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Préversion d’ERNIE 4.5 Turbo 128K avec des capacités de niveau production, adaptée à l’intégration et aux tests canaris.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K est un modèle général haute performance avec augmentation par recherche et appel d’outils pour les scénarios de QA, de codage et d’agents.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K est une version à contexte moyen pour la QA, la recherche dans les bases de connaissances et les dialogues multi-tours.",
452
+ "ernie-4.5-turbo-latest.description": "Dernière version d’ERNIE 4.5 Turbo avec des performances globales optimisées, idéale comme modèle principal en production.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview est une préversion multimodale 32K pour évaluer les capacités de vision à long contexte.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K est une version multimodale à contexte moyen-long pour la compréhension combinée de documents longs et d’images.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest est la version multimodale la plus récente avec une meilleure compréhension image-texte et raisonnement visuel.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview est un modèle multimodal de prévisualisation pour la compréhension et la génération image-texte, adapté à la QA visuelle et à la compréhension de contenu.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL est un modèle multimodal mature pour la compréhension et la reconnaissance image-texte en production.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B est un modèle multimodal open source pour la compréhension et le raisonnement image-texte.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking est un modèle phare natif tout-modal avec modélisation unifiée du texte, de l’image, de l’audio et de la vidéo. Il offre des améliorations majeures pour la QA complexe, la création et les scénarios d’agents.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview est un modèle phare natif tout-modal avec modélisation unifiée du texte, de l’image, de l’audio et de la vidéo. Il offre des améliorations majeures pour la QA complexe, la création et les scénarios d’agents.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K est un modèle de dialogue de personnage pour la création d’IP et les conversations de compagnie à long terme.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview est une préversion de modèle pour la création de personnages et d’intrigues, destinée à l’évaluation des fonctionnalités.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K est un modèle de personnage pour romans et création d’intrigues, adapté à la génération d’histoires longues.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit est un modèle d’édition d’image prenant en charge l’effacement, la retouche et la génération de variantes.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K est un modèle général léger pour la QA quotidienne et la génération de contenu à faible coût.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K est un modèle léger haute performance pour les scénarios sensibles à la latence et au coût.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K est conçu pour les romans longs et les intrigues IP avec des récits multi-personnages.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K est un modèle sans frais d’E/S pour la compréhension de longs textes et les essais à grande échelle.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K est un modèle gratuit et rapide pour le chat quotidien et les tâches textuelles légères.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K est un modèle à haute valeur et haute concurrence pour les services en ligne à grande échelle et les applications d’entreprise.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
446
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
447
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
- "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
33
32
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
34
33
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
35
34
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Service de modèle officiel de {{name}}",
3
3
  "about.title": "À propos",
4
4
  "advancedSettings": "Paramètres avancés",
5
+ "agentCronJobs.addJob": "Ajouter une tâche planifiée",
6
+ "agentCronJobs.confirmDelete": "Êtes-vous sûr de vouloir supprimer cette tâche planifiée ?",
7
+ "agentCronJobs.content": "Contenu de la tâche",
8
+ "agentCronJobs.create": "Créer",
9
+ "agentCronJobs.createSuccess": "Tâche planifiée créée avec succès",
10
+ "agentCronJobs.deleteJob": "Supprimer la tâche",
11
+ "agentCronJobs.deleteSuccess": "Tâche planifiée supprimée avec succès",
12
+ "agentCronJobs.description": "Automatisez votre agent avec des exécutions planifiées",
13
+ "agentCronJobs.disable": "Désactiver",
14
+ "agentCronJobs.editJob": "Modifier la tâche planifiée",
15
+ "agentCronJobs.empty.description": "Créez votre première tâche planifiée pour automatiser votre agent",
16
+ "agentCronJobs.empty.title": "Aucune tâche planifiée pour le moment",
17
+ "agentCronJobs.enable": "Activer",
18
+ "agentCronJobs.form.content.placeholder": "Saisissez l'invite ou l'instruction pour l'agent",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Laisser vide pour illimité",
20
+ "agentCronJobs.form.name.placeholder": "Saisissez le nom de la tâche",
21
+ "agentCronJobs.form.timeRange.end": "Heure de fin",
22
+ "agentCronJobs.form.timeRange.start": "Heure de début",
23
+ "agentCronJobs.form.validation.contentRequired": "Le contenu de la tâche est requis",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "L'heure de début doit être antérieure à l'heure de fin",
25
+ "agentCronJobs.form.validation.nameRequired": "Le nom de la tâche est requis",
26
+ "agentCronJobs.interval.12hours": "Toutes les 12 heures",
27
+ "agentCronJobs.interval.1hour": "Toutes les heures",
28
+ "agentCronJobs.interval.30min": "Toutes les 30 minutes",
29
+ "agentCronJobs.interval.6hours": "Toutes les 6 heures",
30
+ "agentCronJobs.interval.daily": "Quotidien",
31
+ "agentCronJobs.interval.weekly": "Hebdomadaire",
32
+ "agentCronJobs.lastExecuted": "Dernière exécution",
33
+ "agentCronJobs.maxExecutions": "Exécutions maximales",
34
+ "agentCronJobs.name": "Nom de la tâche",
35
+ "agentCronJobs.never": "Jamais",
36
+ "agentCronJobs.remainingExecutions": "Restant : {{count}}",
37
+ "agentCronJobs.save": "Enregistrer",
38
+ "agentCronJobs.schedule": "Planifier",
39
+ "agentCronJobs.status.depleted": "Épuisé",
40
+ "agentCronJobs.status.disabled": "Désactivé",
41
+ "agentCronJobs.status.enabled": "Activé",
42
+ "agentCronJobs.timeRange": "Plage horaire",
43
+ "agentCronJobs.title": "Tâches planifiées",
44
+ "agentCronJobs.unlimited": "Illimité",
45
+ "agentCronJobs.updateSuccess": "Tâche planifiée mise à jour avec succès",
46
+ "agentCronJobs.weekdays": "Jours de la semaine",
5
47
  "agentInfoDescription.basic.avatar": "Avatar",
6
48
  "agentInfoDescription.basic.description": "Description",
7
49
  "agentInfoDescription.basic.name": "Nom",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Servizi aziendali",
157
157
  "mcp.categories.developer.description": "Strumenti e servizi per sviluppatori",
158
158
  "mcp.categories.developer.name": "Strumenti per sviluppatori",
159
+ "mcp.categories.discover.description": "Server MCP consigliati e di tendenza",
160
+ "mcp.categories.discover.name": "Scopri",
159
161
  "mcp.categories.gaming-entertainment.description": "Giochi, intrattenimento e attività ricreative",
160
162
  "mcp.categories.gaming-entertainment.name": "Giochi e intrattenimento",
161
163
  "mcp.categories.health-wellness.description": "Salute, fitness e benessere",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Abilità Validate",
344
346
  "mcp.sorts.promptsCount": "Numero di Prompt",
345
347
  "mcp.sorts.ratingCount": "Numero di Valutazioni",
348
+ "mcp.sorts.recommended": "Consigliati",
346
349
  "mcp.sorts.resourcesCount": "Numero di Risorse",
347
350
  "mcp.sorts.toolsCount": "Numero di Strumenti",
348
351
  "mcp.sorts.updatedAt": "Aggiornati di Recente",
@@ -18,6 +18,8 @@
18
18
  "empty": "Nessun file o cartella è stato ancora caricato.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} file filtrati (su un totale di {{total}})",
20
20
  "header.actions.connect": "Connetti...",
21
+ "header.actions.createFolderError": "Impossibile creare la cartella",
22
+ "header.actions.creatingFolder": "Creazione della cartella in corso...",
21
23
  "header.actions.gitignore.apply": "Applica regole",
22
24
  "header.actions.gitignore.cancel": "Ignora regole",
23
25
  "header.actions.gitignore.content": "File .gitignore rilevato ({{count}} file in totale). Vuoi applicare le regole di esclusione?",