@lobehub/lobehub 2.0.0-next.253 → 2.0.0-next.254

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (91) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/discover.json +3 -0
  4. package/locales/ar/file.json +2 -0
  5. package/locales/ar/models.json +38 -10
  6. package/locales/ar/providers.json +0 -1
  7. package/locales/ar/setting.json +42 -0
  8. package/locales/bg-BG/discover.json +3 -0
  9. package/locales/bg-BG/file.json +2 -0
  10. package/locales/bg-BG/models.json +36 -7
  11. package/locales/bg-BG/providers.json +0 -1
  12. package/locales/bg-BG/setting.json +43 -1
  13. package/locales/de-DE/discover.json +3 -0
  14. package/locales/de-DE/file.json +2 -0
  15. package/locales/de-DE/models.json +45 -10
  16. package/locales/de-DE/providers.json +0 -1
  17. package/locales/de-DE/setting.json +43 -1
  18. package/locales/en-US/discover.json +3 -0
  19. package/locales/en-US/models.json +10 -10
  20. package/locales/en-US/providers.json +0 -1
  21. package/locales/en-US/setting.json +43 -1
  22. package/locales/es-ES/discover.json +3 -0
  23. package/locales/es-ES/file.json +2 -0
  24. package/locales/es-ES/models.json +49 -10
  25. package/locales/es-ES/providers.json +0 -1
  26. package/locales/es-ES/setting.json +43 -1
  27. package/locales/fa-IR/discover.json +3 -0
  28. package/locales/fa-IR/file.json +2 -0
  29. package/locales/fa-IR/models.json +39 -10
  30. package/locales/fa-IR/providers.json +0 -1
  31. package/locales/fa-IR/setting.json +43 -1
  32. package/locales/fr-FR/discover.json +3 -0
  33. package/locales/fr-FR/file.json +2 -0
  34. package/locales/fr-FR/models.json +36 -7
  35. package/locales/fr-FR/providers.json +0 -1
  36. package/locales/fr-FR/setting.json +42 -0
  37. package/locales/it-IT/discover.json +3 -0
  38. package/locales/it-IT/file.json +2 -0
  39. package/locales/it-IT/models.json +45 -10
  40. package/locales/it-IT/providers.json +0 -1
  41. package/locales/it-IT/setting.json +42 -0
  42. package/locales/ja-JP/discover.json +3 -0
  43. package/locales/ja-JP/file.json +2 -0
  44. package/locales/ja-JP/models.json +42 -7
  45. package/locales/ja-JP/providers.json +0 -1
  46. package/locales/ja-JP/setting.json +42 -0
  47. package/locales/ko-KR/discover.json +3 -0
  48. package/locales/ko-KR/file.json +2 -0
  49. package/locales/ko-KR/models.json +48 -7
  50. package/locales/ko-KR/providers.json +0 -1
  51. package/locales/ko-KR/setting.json +42 -0
  52. package/locales/nl-NL/discover.json +3 -0
  53. package/locales/nl-NL/file.json +2 -0
  54. package/locales/nl-NL/models.json +4 -6
  55. package/locales/nl-NL/providers.json +0 -1
  56. package/locales/nl-NL/setting.json +42 -0
  57. package/locales/pl-PL/discover.json +3 -0
  58. package/locales/pl-PL/file.json +2 -0
  59. package/locales/pl-PL/models.json +36 -7
  60. package/locales/pl-PL/providers.json +0 -1
  61. package/locales/pl-PL/setting.json +43 -1
  62. package/locales/pt-BR/discover.json +3 -0
  63. package/locales/pt-BR/file.json +2 -0
  64. package/locales/pt-BR/models.json +47 -6
  65. package/locales/pt-BR/providers.json +0 -1
  66. package/locales/pt-BR/setting.json +42 -0
  67. package/locales/ru-RU/discover.json +3 -0
  68. package/locales/ru-RU/file.json +2 -0
  69. package/locales/ru-RU/models.json +36 -7
  70. package/locales/ru-RU/providers.json +0 -1
  71. package/locales/ru-RU/setting.json +42 -0
  72. package/locales/tr-TR/discover.json +3 -0
  73. package/locales/tr-TR/file.json +2 -0
  74. package/locales/tr-TR/models.json +36 -5
  75. package/locales/tr-TR/providers.json +0 -1
  76. package/locales/tr-TR/setting.json +43 -1
  77. package/locales/vi-VN/discover.json +3 -0
  78. package/locales/vi-VN/file.json +2 -0
  79. package/locales/vi-VN/models.json +5 -5
  80. package/locales/vi-VN/providers.json +0 -1
  81. package/locales/vi-VN/setting.json +42 -0
  82. package/locales/zh-CN/discover.json +3 -3
  83. package/locales/zh-CN/models.json +38 -9
  84. package/locales/zh-CN/providers.json +0 -1
  85. package/locales/zh-CN/setting.json +42 -0
  86. package/locales/zh-TW/discover.json +3 -0
  87. package/locales/zh-TW/file.json +2 -0
  88. package/locales/zh-TW/models.json +54 -10
  89. package/locales/zh-TW/providers.json +0 -1
  90. package/locales/zh-TW/setting.json +42 -0
  91. package/package.json +1 -1
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "{{name}} 공식 모델 서비스",
3
3
  "about.title": "정보",
4
4
  "advancedSettings": "고급 설정",
5
+ "agentCronJobs.addJob": "예약 작업 추가",
6
+ "agentCronJobs.confirmDelete": "이 예약 작업을 삭제하시겠습니까?",
7
+ "agentCronJobs.content": "작업 내용",
8
+ "agentCronJobs.create": "생성",
9
+ "agentCronJobs.createSuccess": "예약 작업이 성공적으로 생성되었습니다",
10
+ "agentCronJobs.deleteJob": "작업 삭제",
11
+ "agentCronJobs.deleteSuccess": "예약 작업이 성공적으로 삭제되었습니다",
12
+ "agentCronJobs.description": "예약 실행으로 에이전트를 자동화하세요",
13
+ "agentCronJobs.disable": "비활성화",
14
+ "agentCronJobs.editJob": "예약 작업 편집",
15
+ "agentCronJobs.empty.description": "첫 번째 예약 작업을 생성하여 에이전트를 자동화하세요",
16
+ "agentCronJobs.empty.title": "예약 작업이 없습니다",
17
+ "agentCronJobs.enable": "활성화",
18
+ "agentCronJobs.form.content.placeholder": "에이전트에게 줄 프롬프트나 지시사항을 입력하세요",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "무제한으로 설정하려면 비워두세요",
20
+ "agentCronJobs.form.name.placeholder": "작업 이름을 입력하세요",
21
+ "agentCronJobs.form.timeRange.end": "종료 시간",
22
+ "agentCronJobs.form.timeRange.start": "시작 시간",
23
+ "agentCronJobs.form.validation.contentRequired": "작업 내용은 필수입니다",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "시작 시간은 종료 시간보다 이전이어야 합니다",
25
+ "agentCronJobs.form.validation.nameRequired": "작업 이름은 필수입니다",
26
+ "agentCronJobs.interval.12hours": "12시간마다",
27
+ "agentCronJobs.interval.1hour": "매시간",
28
+ "agentCronJobs.interval.30min": "30분마다",
29
+ "agentCronJobs.interval.6hours": "6시간마다",
30
+ "agentCronJobs.interval.daily": "매일",
31
+ "agentCronJobs.interval.weekly": "매주",
32
+ "agentCronJobs.lastExecuted": "마지막 실행",
33
+ "agentCronJobs.maxExecutions": "최대 실행 횟수",
34
+ "agentCronJobs.name": "작업 이름",
35
+ "agentCronJobs.never": "없음",
36
+ "agentCronJobs.remainingExecutions": "남은 횟수: {{count}}",
37
+ "agentCronJobs.save": "저장",
38
+ "agentCronJobs.schedule": "일정",
39
+ "agentCronJobs.status.depleted": "소진됨",
40
+ "agentCronJobs.status.disabled": "비활성화됨",
41
+ "agentCronJobs.status.enabled": "활성화됨",
42
+ "agentCronJobs.timeRange": "시간 범위",
43
+ "agentCronJobs.title": "예약 작업",
44
+ "agentCronJobs.unlimited": "무제한",
45
+ "agentCronJobs.updateSuccess": "예약 작업이 성공적으로 업데이트되었습니다",
46
+ "agentCronJobs.weekdays": "평일",
5
47
  "agentInfoDescription.basic.avatar": "아바타",
6
48
  "agentInfoDescription.basic.description": "설명",
7
49
  "agentInfoDescription.basic.name": "이름",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Zakelijke diensten",
157
157
  "mcp.categories.developer.description": "Ontwikkelaarstools en -diensten",
158
158
  "mcp.categories.developer.name": "Ontwikkelaarstools",
159
+ "mcp.categories.discover.description": "Aanbevolen en populaire MCP-servers",
160
+ "mcp.categories.discover.name": "Ontdekken",
159
161
  "mcp.categories.gaming-entertainment.description": "Spellen, entertainment en vrijetijdsactiviteiten",
160
162
  "mcp.categories.gaming-entertainment.name": "Gaming & Entertainment",
161
163
  "mcp.categories.health-wellness.description": "Gezondheid, fitness en welzijn",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Gevalideerde skills",
344
346
  "mcp.sorts.promptsCount": "Aantal prompts",
345
347
  "mcp.sorts.ratingCount": "Aantal beoordelingen",
348
+ "mcp.sorts.recommended": "Aanbevolen",
346
349
  "mcp.sorts.resourcesCount": "Aantal bronnen",
347
350
  "mcp.sorts.toolsCount": "Aantal tools",
348
351
  "mcp.sorts.updatedAt": "Recent bijgewerkt",
@@ -18,6 +18,8 @@
18
18
  "empty": "Er zijn nog geen bestanden of mappen geüpload.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} bestanden gefilterd (van {{total}} totaal)",
20
20
  "header.actions.connect": "Verbinden...",
21
+ "header.actions.createFolderError": "Map aanmaken mislukt",
22
+ "header.actions.creatingFolder": "Map wordt aangemaakt...",
21
23
  "header.actions.gitignore.apply": "Regels toepassen",
22
24
  "header.actions.gitignore.cancel": "Regels negeren",
23
25
  "header.actions.gitignore.content": ".gitignore-bestand gedetecteerd ({{count}} bestanden in totaal). Wil je de negeerregels toepassen?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
272
272
  "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
273
273
  "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan het vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het biedt vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic. Het biedt vrijwel directe reacties of stapsgewijze denkprocessen met nauwkeurige controle voor API-gebruikers.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
358
- "deepseek-chat.description": "DeepSeek V3.2 biedt een evenwicht tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
379
378
  "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
380
379
  "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diep redeneermodel dat eerst een denkproces genereert voordat het een antwoord geeft, wat zorgt voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
382
380
  "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
- "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
33
32
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
34
33
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
35
34
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "{{name}} Officiële Modeldienst",
3
3
  "about.title": "Over",
4
4
  "advancedSettings": "Geavanceerde instellingen",
5
+ "agentCronJobs.addJob": "Geplande Taak Toevoegen",
6
+ "agentCronJobs.confirmDelete": "Weet je zeker dat je deze geplande taak wilt verwijderen?",
7
+ "agentCronJobs.content": "Taakinstructie",
8
+ "agentCronJobs.create": "Aanmaken",
9
+ "agentCronJobs.createSuccess": "Geplande taak succesvol aangemaakt",
10
+ "agentCronJobs.deleteJob": "Taak Verwijderen",
11
+ "agentCronJobs.deleteSuccess": "Geplande taak succesvol verwijderd",
12
+ "agentCronJobs.description": "Automatiseer je agent met geplande uitvoeringen",
13
+ "agentCronJobs.disable": "Uitschakelen",
14
+ "agentCronJobs.editJob": "Geplande Taak Bewerken",
15
+ "agentCronJobs.empty.description": "Maak je eerste geplande taak aan om je agent te automatiseren",
16
+ "agentCronJobs.empty.title": "Nog geen geplande taken",
17
+ "agentCronJobs.enable": "Inschakelen",
18
+ "agentCronJobs.form.content.placeholder": "Voer de prompt of instructie voor de agent in",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Laat leeg voor onbeperkt",
20
+ "agentCronJobs.form.name.placeholder": "Voer de naam van de taak in",
21
+ "agentCronJobs.form.timeRange.end": "Eindtijd",
22
+ "agentCronJobs.form.timeRange.start": "Starttijd",
23
+ "agentCronJobs.form.validation.contentRequired": "Taakinstructie is verplicht",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "Starttijd moet vóór de eindtijd liggen",
25
+ "agentCronJobs.form.validation.nameRequired": "Taaknaam is verplicht",
26
+ "agentCronJobs.interval.12hours": "Elke 12 uur",
27
+ "agentCronJobs.interval.1hour": "Elk uur",
28
+ "agentCronJobs.interval.30min": "Elke 30 minuten",
29
+ "agentCronJobs.interval.6hours": "Elke 6 uur",
30
+ "agentCronJobs.interval.daily": "Dagelijks",
31
+ "agentCronJobs.interval.weekly": "Wekelijks",
32
+ "agentCronJobs.lastExecuted": "Laatst Uitgevoerd",
33
+ "agentCronJobs.maxExecutions": "Maximale Uitvoeringen",
34
+ "agentCronJobs.name": "Taaknaam",
35
+ "agentCronJobs.never": "Nooit",
36
+ "agentCronJobs.remainingExecutions": "Resterend: {{count}}",
37
+ "agentCronJobs.save": "Opslaan",
38
+ "agentCronJobs.schedule": "Schema",
39
+ "agentCronJobs.status.depleted": "Opgebruikt",
40
+ "agentCronJobs.status.disabled": "Uitgeschakeld",
41
+ "agentCronJobs.status.enabled": "Ingeschakeld",
42
+ "agentCronJobs.timeRange": "Tijdspanne",
43
+ "agentCronJobs.title": "Geplande Taken",
44
+ "agentCronJobs.unlimited": "Onbeperkt",
45
+ "agentCronJobs.updateSuccess": "Geplande taak succesvol bijgewerkt",
46
+ "agentCronJobs.weekdays": "Weekdagen",
5
47
  "agentInfoDescription.basic.avatar": "Avatar",
6
48
  "agentInfoDescription.basic.description": "Beschrijving",
7
49
  "agentInfoDescription.basic.name": "Naam",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Usługi biznesowe",
157
157
  "mcp.categories.developer.description": "Narzędzia i usługi dla programistów",
158
158
  "mcp.categories.developer.name": "Narzędzia programistyczne",
159
+ "mcp.categories.discover.description": "Polecane i popularne serwery MCP",
160
+ "mcp.categories.discover.name": "Odkrywaj",
159
161
  "mcp.categories.gaming-entertainment.description": "Gry, rozrywka i czas wolny",
160
162
  "mcp.categories.gaming-entertainment.name": "Gry i rozrywka",
161
163
  "mcp.categories.health-wellness.description": "Zdrowie, fitness i dobre samopoczucie",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Zweryfikowane Umiejętności",
344
346
  "mcp.sorts.promptsCount": "Liczba Wskazówek",
345
347
  "mcp.sorts.ratingCount": "Liczba Ocen",
348
+ "mcp.sorts.recommended": "Polecane",
346
349
  "mcp.sorts.resourcesCount": "Liczba Zasobów",
347
350
  "mcp.sorts.toolsCount": "Liczba Narzędzi",
348
351
  "mcp.sorts.updatedAt": "Ostatnio Zaktualizowane",
@@ -18,6 +18,8 @@
18
18
  "empty": "Nie przesłano jeszcze żadnych plików ani folderów.",
19
19
  "header.actions.builtInBlockList.filtered": "Przefiltrowano {{ignored}} plików (z {{total}} ogółem)",
20
20
  "header.actions.connect": "Połącz...",
21
+ "header.actions.createFolderError": "Nie udało się utworzyć folderu",
22
+ "header.actions.creatingFolder": "Tworzenie folderu...",
21
23
  "header.actions.gitignore.apply": "Zastosuj reguły",
22
24
  "header.actions.gitignore.cancel": "Ignoruj reguły",
23
25
  "header.actions.gitignore.content": "Wykryto plik .gitignore (łącznie {{count}} plików). Czy chcesz zastosować reguły ignorowania?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, umożliwiający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku, widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic, stworzony do realizacji wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "DeepSeek V3.2 zapewnia równowagę między rozumowaniem a długością odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
358
+ "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu oraz silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, zwiększając dokładność.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
444
444
  "emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B to lekki model open-source przeznaczony do lokalnego i dostosowanego wdrażania.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B to model open-source o dużej liczbie parametrów, oferujący lepsze zrozumienie i generowanie treści.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B to ultraduży model MoE od Baidu ERNIE, wyróżniający się doskonałym rozumowaniem.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview to model podglądowy z kontekstem 8K, służący do oceny możliwości ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Podgląd ERNIE 4.5 Turbo 128K z możliwościami produkcyjnymi, odpowiedni do integracji i testów kanarkowych.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K to wydajny model ogólnego przeznaczenia z rozszerzeniem wyszukiwania i obsługą narzędzi do QA, programowania i scenariuszy agentowych.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K to wersja ze średniej długości kontekstem do QA, wyszukiwania w bazach wiedzy i dialogów wieloetapowych.",
452
+ "ernie-4.5-turbo-latest.description": "Najnowsza wersja ERNIE 4.5 Turbo z zoptymalizowaną wydajnością ogólną, idealna jako główny model produkcyjny.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview to multimodalny model podglądowy do oceny zdolności przetwarzania długiego kontekstu wizualnego.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K to multimodalna wersja średnio-długiego kontekstu do zintegrowanego rozumienia dokumentów i obrazów.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest to najnowsza wersja multimodalna z ulepszonym rozumieniem i rozumowaniem obraz-tekst.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview to multimodalny model podglądowy do rozumienia i generowania obraz-tekst, odpowiedni do wizualnego QA i zrozumienia treści.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL to dojrzały model multimodalny do produkcyjnego rozumienia i rozpoznawania obraz-tekst.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B to open-source'owy model multimodalny do rozumienia i rozumowania obraz-tekst.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking to flagowy model natywny pełnomodalny z ujednoliconym modelowaniem tekstu, obrazu, dźwięku i wideo. Zapewnia szerokie ulepszenia możliwości w złożonych scenariuszach QA, twórczości i agentów.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview to flagowy model natywny pełnomodalny z ujednoliconym modelowaniem tekstu, obrazu, dźwięku i wideo. Zapewnia szerokie ulepszenia możliwości w złożonych scenariuszach QA, twórczości i agentów.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K to model dialogowy z osobowością do budowania postaci IP i długoterminowych rozmów towarzyskich.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview to model podglądowy do tworzenia postaci i fabuły, przeznaczony do oceny funkcji i testów.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K to model osobowościowy do powieści i tworzenia fabuły, odpowiedni do generowania długich historii.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit to model edycji obrazu obsługujący wymazywanie, przemalowywanie i generowanie wariantów.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K to lekki model ogólnego przeznaczenia do codziennego QA i generowania treści przy ograniczonym budżecie.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K to lekki model wysokiej wydajności do scenariuszy wrażliwych na opóźnienia i koszty.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K został stworzony do długich powieści i fabuł IP z narracją wielopostaciową.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K to model bez opłat za I/O do rozumienia długich tekstów i testów na dużą skalę.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K to darmowy, szybki model do codziennych rozmów i lekkich zadań tekstowych.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K to model o wysokiej równoczesności i dużej wartości do usług online na dużą skalę i aplikacji korporacyjnych.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
446
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
447
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Oficjalna usługa modelu {{name}}",
3
3
  "about.title": "O nas",
4
4
  "advancedSettings": "Ustawienia zaawansowane",
5
+ "agentCronJobs.addJob": "Dodaj zadanie cykliczne",
6
+ "agentCronJobs.confirmDelete": "Czy na pewno chcesz usunąć to zadanie cykliczne?",
7
+ "agentCronJobs.content": "Treść zadania",
8
+ "agentCronJobs.create": "Utwórz",
9
+ "agentCronJobs.createSuccess": "Zadanie cykliczne zostało pomyślnie utworzone",
10
+ "agentCronJobs.deleteJob": "Usuń zadanie",
11
+ "agentCronJobs.deleteSuccess": "Zadanie cykliczne zostało pomyślnie usunięte",
12
+ "agentCronJobs.description": "Zautomatyzuj swojego agenta za pomocą zaplanowanych uruchomień",
13
+ "agentCronJobs.disable": "Wyłącz",
14
+ "agentCronJobs.editJob": "Edytuj zadanie cykliczne",
15
+ "agentCronJobs.empty.description": "Utwórz swoje pierwsze zadanie cykliczne, aby zautomatyzować agenta",
16
+ "agentCronJobs.empty.title": "Brak zadań cyklicznych",
17
+ "agentCronJobs.enable": "Włącz",
18
+ "agentCronJobs.form.content.placeholder": "Wprowadź polecenie lub instrukcję dla agenta",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Pozostaw puste dla nieograniczonej liczby",
20
+ "agentCronJobs.form.name.placeholder": "Wprowadź nazwę zadania",
21
+ "agentCronJobs.form.timeRange.end": "Czas zakończenia",
22
+ "agentCronJobs.form.timeRange.start": "Czas rozpoczęcia",
23
+ "agentCronJobs.form.validation.contentRequired": "Treść zadania jest wymagana",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "Czas rozpoczęcia musi być wcześniejszy niż czas zakończenia",
25
+ "agentCronJobs.form.validation.nameRequired": "Nazwa zadania jest wymagana",
26
+ "agentCronJobs.interval.12hours": "Co 12 godzin",
27
+ "agentCronJobs.interval.1hour": "Co godzinę",
28
+ "agentCronJobs.interval.30min": "Co 30 minut",
29
+ "agentCronJobs.interval.6hours": "Co 6 godzin",
30
+ "agentCronJobs.interval.daily": "Codziennie",
31
+ "agentCronJobs.interval.weekly": "Co tydzień",
32
+ "agentCronJobs.lastExecuted": "Ostatnie uruchomienie",
33
+ "agentCronJobs.maxExecutions": "Maksymalna liczba uruchomień",
34
+ "agentCronJobs.name": "Nazwa zadania",
35
+ "agentCronJobs.never": "Nigdy",
36
+ "agentCronJobs.remainingExecutions": "Pozostało: {{count}}",
37
+ "agentCronJobs.save": "Zapisz",
38
+ "agentCronJobs.schedule": "Harmonogram",
39
+ "agentCronJobs.status.depleted": "Wyczerpano",
40
+ "agentCronJobs.status.disabled": "Wyłączone",
41
+ "agentCronJobs.status.enabled": "Włączone",
42
+ "agentCronJobs.timeRange": "Zakres czasu",
43
+ "agentCronJobs.title": "Zadania cykliczne",
44
+ "agentCronJobs.unlimited": "Nieograniczone",
45
+ "agentCronJobs.updateSuccess": "Zadanie cykliczne zostało pomyślnie zaktualizowane",
46
+ "agentCronJobs.weekdays": "Dni robocze",
5
47
  "agentInfoDescription.basic.avatar": "Awatar",
6
48
  "agentInfoDescription.basic.description": "Opis",
7
49
  "agentInfoDescription.basic.name": "Nazwa",
@@ -46,7 +88,7 @@
46
88
  "danger.reset.action": "Zresetuj teraz",
47
89
  "danger.reset.confirm": "Zresetować wszystkie ustawienia?",
48
90
  "danger.reset.currentVersion": "Aktualna wersja",
49
- "danger.reset.desc": "Przywróć wszystkie ustawienia do wartości domyślnych. Twoje dane nie zostaną usunięte.",
91
+ "danger.reset.desc": "Przywróć wszystkie ustawienia domyślne. Twoje dane nie zostaną usunięte.",
50
92
  "danger.reset.success": "Wszystkie ustawienia zostały zresetowane",
51
93
  "danger.reset.title": "Zresetuj wszystkie ustawienia",
52
94
  "defaultAgent.model.desc": "Domyślny model używany przy tworzeniu nowego agenta",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Serviços Empresariais",
157
157
  "mcp.categories.developer.description": "Ferramentas e Serviços para Desenvolvedores",
158
158
  "mcp.categories.developer.name": "Ferramentas de Desenvolvimento",
159
+ "mcp.categories.discover.description": "Servidores MCP recomendados e em alta",
160
+ "mcp.categories.discover.name": "Descobrir",
159
161
  "mcp.categories.gaming-entertainment.description": "Jogos, Entretenimento e Atividades de Lazer",
160
162
  "mcp.categories.gaming-entertainment.name": "Jogos e Entretenimento",
161
163
  "mcp.categories.health-wellness.description": "Saúde, Fitness e Bem-Estar",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Habilidades Validadas",
344
346
  "mcp.sorts.promptsCount": "Número de Prompts",
345
347
  "mcp.sorts.ratingCount": "Número de Avaliações",
348
+ "mcp.sorts.recommended": "Recomendado",
346
349
  "mcp.sorts.resourcesCount": "Número de Recursos",
347
350
  "mcp.sorts.toolsCount": "Número de Ferramentas",
348
351
  "mcp.sorts.updatedAt": "Atualizados Recentemente",
@@ -18,6 +18,8 @@
18
18
  "empty": "Nenhum arquivo ou pasta foi enviado ainda.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} arquivos filtrados (de {{total}} no total)",
20
20
  "header.actions.connect": "Conectar...",
21
+ "header.actions.createFolderError": "Falha ao criar a pasta",
22
+ "header.actions.creatingFolder": "Criando pasta...",
21
23
  "header.actions.gitignore.apply": "Aplicar Regras",
22
24
  "header.actions.gitignore.cancel": "Ignorar Regras",
23
25
  "header.actions.gitignore.content": "Arquivo .gitignore detectado ({{count}} arquivos no total). Deseja aplicar as regras de exclusão?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,6 +471,47 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem, com geração altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
475
+ "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] é um modelo de geração de imagens com 12 bilhões de parâmetros, projetado para saída rápida e de alta qualidade.",
479
+ "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
+ "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês e inglês, e edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
+ "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com renderização impressionante de texto em chinês e estilos visuais diversos.",
484
+ "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
+ "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
487
+ "flux-kontext-pro.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
488
+ "flux-merged.description": "FLUX.1-merged combina os recursos profundos explorados no \"DEV\" com as vantagens de alta velocidade do \"Schnell\", ampliando os limites de desempenho e expandindo as aplicações.",
489
+ "flux-pro-1.1-ultra.description": "Geração de imagens em ultra-alta resolução com saída de 4MP, produzindo imagens nítidas em 10 segundos.",
490
+ "flux-pro-1.1.description": "Modelo profissional de geração de imagens atualizado, com excelente qualidade e aderência precisa aos comandos.",
491
+ "flux-pro.description": "Modelo comercial de geração de imagens de alto nível, com qualidade incomparável e saídas diversas.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] é o modelo de código aberto mais avançado com poucas etapas, superando concorrentes similares e até modelos não destilados como Midjourney v6.0 e DALL-E 3 (HD). É ajustado para preservar a diversidade do pré-treinamento, melhorando significativamente a qualidade visual, seguimento de instruções, variação de tamanho/aspecto, manipulação de fontes e diversidade de saída.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell é um modelo de geração de imagens de alto desempenho para saídas rápidas e com múltiplos estilos.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) oferece desempenho estável e ajustável para tarefas complexas.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferece suporte multimodal robusto para tarefas complexas.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para escalabilidade em tarefas amplas.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente para escalabilidade em aplicações amplas.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 é um modelo multimodal eficiente, projetado para implantação em larga escala.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 é o modelo experimental mais recente, com avanços notáveis em casos de uso de texto e multimodais.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B é um modelo multimodal eficiente, projetado para implantação em larga escala.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B é um modelo multimodal eficiente para escalabilidade em aplicações amplas.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 oferece processamento multimodal otimizado para tarefas complexas.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash é o modelo multimodal mais recente do Google, com processamento rápido e suporte a entradas de texto, imagem e vídeo para escalabilidade eficiente em tarefas.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 é uma solução de IA multimodal escalável para tarefas complexas.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 é o modelo mais recente pronto para produção, com saída de maior qualidade, especialmente em matemática, contexto longo e tarefas visuais.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 oferece processamento multimodal robusto com maior flexibilidade para desenvolvimento de aplicativos.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica as otimizações mais recentes para processamento multimodal mais eficiente.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo um modelo multimodal de porte médio ideal para tarefas complexas.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash com suporte à geração de imagens.",
511
+ "gemini-2.0-flash-exp.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
512
+ "gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
513
+ "gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
474
515
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
475
516
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
476
517
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Serviço Oficial de Modelos {{name}}",
3
3
  "about.title": "Sobre",
4
4
  "advancedSettings": "Configurações Avançadas",
5
+ "agentCronJobs.addJob": "Adicionar Tarefa Agendada",
6
+ "agentCronJobs.confirmDelete": "Tem certeza de que deseja excluir esta tarefa agendada?",
7
+ "agentCronJobs.content": "Conteúdo da Tarefa",
8
+ "agentCronJobs.create": "Criar",
9
+ "agentCronJobs.createSuccess": "Tarefa agendada criada com sucesso",
10
+ "agentCronJobs.deleteJob": "Excluir Tarefa",
11
+ "agentCronJobs.deleteSuccess": "Tarefa agendada excluída com sucesso",
12
+ "agentCronJobs.description": "Automatize seu agente com execuções agendadas",
13
+ "agentCronJobs.disable": "Desativar",
14
+ "agentCronJobs.editJob": "Editar Tarefa Agendada",
15
+ "agentCronJobs.empty.description": "Crie sua primeira tarefa agendada para automatizar seu agente",
16
+ "agentCronJobs.empty.title": "Nenhuma tarefa agendada ainda",
17
+ "agentCronJobs.enable": "Ativar",
18
+ "agentCronJobs.form.content.placeholder": "Insira o prompt ou instrução para o agente",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Deixe em branco para ilimitado",
20
+ "agentCronJobs.form.name.placeholder": "Insira o nome da tarefa",
21
+ "agentCronJobs.form.timeRange.end": "Hora de Término",
22
+ "agentCronJobs.form.timeRange.start": "Hora de Início",
23
+ "agentCronJobs.form.validation.contentRequired": "O conteúdo da tarefa é obrigatório",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "A hora de início deve ser anterior à hora de término",
25
+ "agentCronJobs.form.validation.nameRequired": "O nome da tarefa é obrigatório",
26
+ "agentCronJobs.interval.12hours": "A cada 12 horas",
27
+ "agentCronJobs.interval.1hour": "A cada hora",
28
+ "agentCronJobs.interval.30min": "A cada 30 minutos",
29
+ "agentCronJobs.interval.6hours": "A cada 6 horas",
30
+ "agentCronJobs.interval.daily": "Diariamente",
31
+ "agentCronJobs.interval.weekly": "Semanalmente",
32
+ "agentCronJobs.lastExecuted": "Última Execução",
33
+ "agentCronJobs.maxExecutions": "Máximo de Execuções",
34
+ "agentCronJobs.name": "Nome da Tarefa",
35
+ "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
+ "agentCronJobs.save": "Salvar",
38
+ "agentCronJobs.schedule": "Agendar",
39
+ "agentCronJobs.status.depleted": "Esgotado",
40
+ "agentCronJobs.status.disabled": "Desativado",
41
+ "agentCronJobs.status.enabled": "Ativado",
42
+ "agentCronJobs.timeRange": "Intervalo de Tempo",
43
+ "agentCronJobs.title": "Tarefas Agendadas",
44
+ "agentCronJobs.unlimited": "Ilimitado",
45
+ "agentCronJobs.updateSuccess": "Tarefa agendada atualizada com sucesso",
46
+ "agentCronJobs.weekdays": "Dias da Semana",
5
47
  "agentInfoDescription.basic.avatar": "Avatar",
6
48
  "agentInfoDescription.basic.description": "Descrição",
7
49
  "agentInfoDescription.basic.name": "Nome",