@lobehub/lobehub 2.0.0-next.252 → 2.0.0-next.254

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (107) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/apps/desktop/build/entitlements.mac.plist +9 -0
  3. package/apps/desktop/resources/locales/zh-CN/dialog.json +5 -1
  4. package/apps/desktop/resources/locales/zh-CN/menu.json +7 -0
  5. package/apps/desktop/src/main/controllers/SystemCtr.ts +186 -94
  6. package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +200 -31
  7. package/apps/desktop/src/main/core/browser/Browser.ts +9 -0
  8. package/apps/desktop/src/main/locales/default/dialog.ts +7 -2
  9. package/apps/desktop/src/main/locales/default/menu.ts +7 -0
  10. package/apps/desktop/src/main/menus/impls/macOS.ts +44 -1
  11. package/apps/desktop/src/main/utils/fullDiskAccess.ts +121 -0
  12. package/changelog/v1.json +14 -0
  13. package/locales/ar/discover.json +3 -0
  14. package/locales/ar/file.json +2 -0
  15. package/locales/ar/models.json +38 -10
  16. package/locales/ar/providers.json +0 -1
  17. package/locales/ar/setting.json +42 -0
  18. package/locales/bg-BG/discover.json +3 -0
  19. package/locales/bg-BG/file.json +2 -0
  20. package/locales/bg-BG/models.json +36 -7
  21. package/locales/bg-BG/providers.json +0 -1
  22. package/locales/bg-BG/setting.json +43 -1
  23. package/locales/de-DE/discover.json +3 -0
  24. package/locales/de-DE/file.json +2 -0
  25. package/locales/de-DE/models.json +45 -10
  26. package/locales/de-DE/providers.json +0 -1
  27. package/locales/de-DE/setting.json +43 -1
  28. package/locales/en-US/discover.json +3 -0
  29. package/locales/en-US/models.json +10 -10
  30. package/locales/en-US/providers.json +0 -1
  31. package/locales/en-US/setting.json +43 -1
  32. package/locales/es-ES/discover.json +3 -0
  33. package/locales/es-ES/file.json +2 -0
  34. package/locales/es-ES/models.json +49 -10
  35. package/locales/es-ES/providers.json +0 -1
  36. package/locales/es-ES/setting.json +43 -1
  37. package/locales/fa-IR/discover.json +3 -0
  38. package/locales/fa-IR/file.json +2 -0
  39. package/locales/fa-IR/models.json +39 -10
  40. package/locales/fa-IR/providers.json +0 -1
  41. package/locales/fa-IR/setting.json +43 -1
  42. package/locales/fr-FR/discover.json +3 -0
  43. package/locales/fr-FR/file.json +2 -0
  44. package/locales/fr-FR/models.json +36 -7
  45. package/locales/fr-FR/providers.json +0 -1
  46. package/locales/fr-FR/setting.json +42 -0
  47. package/locales/it-IT/discover.json +3 -0
  48. package/locales/it-IT/file.json +2 -0
  49. package/locales/it-IT/models.json +45 -10
  50. package/locales/it-IT/providers.json +0 -1
  51. package/locales/it-IT/setting.json +42 -0
  52. package/locales/ja-JP/discover.json +3 -0
  53. package/locales/ja-JP/file.json +2 -0
  54. package/locales/ja-JP/models.json +42 -7
  55. package/locales/ja-JP/providers.json +0 -1
  56. package/locales/ja-JP/setting.json +42 -0
  57. package/locales/ko-KR/discover.json +3 -0
  58. package/locales/ko-KR/file.json +2 -0
  59. package/locales/ko-KR/models.json +48 -7
  60. package/locales/ko-KR/providers.json +0 -1
  61. package/locales/ko-KR/setting.json +42 -0
  62. package/locales/nl-NL/discover.json +3 -0
  63. package/locales/nl-NL/file.json +2 -0
  64. package/locales/nl-NL/models.json +4 -6
  65. package/locales/nl-NL/providers.json +0 -1
  66. package/locales/nl-NL/setting.json +42 -0
  67. package/locales/pl-PL/discover.json +3 -0
  68. package/locales/pl-PL/file.json +2 -0
  69. package/locales/pl-PL/models.json +36 -7
  70. package/locales/pl-PL/providers.json +0 -1
  71. package/locales/pl-PL/setting.json +43 -1
  72. package/locales/pt-BR/discover.json +3 -0
  73. package/locales/pt-BR/file.json +2 -0
  74. package/locales/pt-BR/models.json +47 -6
  75. package/locales/pt-BR/providers.json +0 -1
  76. package/locales/pt-BR/setting.json +42 -0
  77. package/locales/ru-RU/discover.json +3 -0
  78. package/locales/ru-RU/file.json +2 -0
  79. package/locales/ru-RU/models.json +36 -7
  80. package/locales/ru-RU/providers.json +0 -1
  81. package/locales/ru-RU/setting.json +42 -0
  82. package/locales/tr-TR/discover.json +3 -0
  83. package/locales/tr-TR/file.json +2 -0
  84. package/locales/tr-TR/models.json +36 -5
  85. package/locales/tr-TR/providers.json +0 -1
  86. package/locales/tr-TR/setting.json +43 -1
  87. package/locales/vi-VN/discover.json +3 -0
  88. package/locales/vi-VN/file.json +2 -0
  89. package/locales/vi-VN/models.json +5 -5
  90. package/locales/vi-VN/providers.json +0 -1
  91. package/locales/vi-VN/setting.json +42 -0
  92. package/locales/zh-CN/discover.json +3 -3
  93. package/locales/zh-CN/models.json +38 -9
  94. package/locales/zh-CN/providers.json +0 -1
  95. package/locales/zh-CN/setting.json +42 -0
  96. package/locales/zh-TW/discover.json +3 -0
  97. package/locales/zh-TW/file.json +2 -0
  98. package/locales/zh-TW/models.json +54 -10
  99. package/locales/zh-TW/providers.json +0 -1
  100. package/locales/zh-TW/setting.json +42 -0
  101. package/package.json +1 -1
  102. package/packages/electron-client-ipc/src/events/system.ts +1 -0
  103. package/src/app/[variants]/(desktop)/desktop-onboarding/features/PermissionsStep.tsx +16 -30
  104. package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +19 -9
  105. package/src/app/[variants]/(desktop)/desktop-onboarding/storage.ts +49 -0
  106. package/src/features/ChatInput/ActionBar/Params/Controls.tsx +7 -6
  107. package/apps/desktop/src/main/controllers/scripts/full-disk-access.applescript +0 -85
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Usługi biznesowe",
157
157
  "mcp.categories.developer.description": "Narzędzia i usługi dla programistów",
158
158
  "mcp.categories.developer.name": "Narzędzia programistyczne",
159
+ "mcp.categories.discover.description": "Polecane i popularne serwery MCP",
160
+ "mcp.categories.discover.name": "Odkrywaj",
159
161
  "mcp.categories.gaming-entertainment.description": "Gry, rozrywka i czas wolny",
160
162
  "mcp.categories.gaming-entertainment.name": "Gry i rozrywka",
161
163
  "mcp.categories.health-wellness.description": "Zdrowie, fitness i dobre samopoczucie",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Zweryfikowane Umiejętności",
344
346
  "mcp.sorts.promptsCount": "Liczba Wskazówek",
345
347
  "mcp.sorts.ratingCount": "Liczba Ocen",
348
+ "mcp.sorts.recommended": "Polecane",
346
349
  "mcp.sorts.resourcesCount": "Liczba Zasobów",
347
350
  "mcp.sorts.toolsCount": "Liczba Narzędzi",
348
351
  "mcp.sorts.updatedAt": "Ostatnio Zaktualizowane",
@@ -18,6 +18,8 @@
18
18
  "empty": "Nie przesłano jeszcze żadnych plików ani folderów.",
19
19
  "header.actions.builtInBlockList.filtered": "Przefiltrowano {{ignored}} plików (z {{total}} ogółem)",
20
20
  "header.actions.connect": "Połącz...",
21
+ "header.actions.createFolderError": "Nie udało się utworzyć folderu",
22
+ "header.actions.creatingFolder": "Tworzenie folderu...",
21
23
  "header.actions.gitignore.apply": "Zastosuj reguły",
22
24
  "header.actions.gitignore.cancel": "Ignoruj reguły",
23
25
  "header.actions.gitignore.content": "Wykryto plik .gitignore (łącznie {{count}} plików). Czy chcesz zastosować reguły ignorowania?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, umożliwiający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku, widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic, stworzony do realizacji wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "DeepSeek V3.2 zapewnia równowagę między rozumowaniem a długością odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
358
+ "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu oraz silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, zwiększając dokładność.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
444
444
  "emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B to lekki model open-source przeznaczony do lokalnego i dostosowanego wdrażania.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B to model open-source o dużej liczbie parametrów, oferujący lepsze zrozumienie i generowanie treści.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B to ultraduży model MoE od Baidu ERNIE, wyróżniający się doskonałym rozumowaniem.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview to model podglądowy z kontekstem 8K, służący do oceny możliwości ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Podgląd ERNIE 4.5 Turbo 128K z możliwościami produkcyjnymi, odpowiedni do integracji i testów kanarkowych.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K to wydajny model ogólnego przeznaczenia z rozszerzeniem wyszukiwania i obsługą narzędzi do QA, programowania i scenariuszy agentowych.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K to wersja ze średniej długości kontekstem do QA, wyszukiwania w bazach wiedzy i dialogów wieloetapowych.",
452
+ "ernie-4.5-turbo-latest.description": "Najnowsza wersja ERNIE 4.5 Turbo z zoptymalizowaną wydajnością ogólną, idealna jako główny model produkcyjny.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview to multimodalny model podglądowy do oceny zdolności przetwarzania długiego kontekstu wizualnego.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K to multimodalna wersja średnio-długiego kontekstu do zintegrowanego rozumienia dokumentów i obrazów.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest to najnowsza wersja multimodalna z ulepszonym rozumieniem i rozumowaniem obraz-tekst.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview to multimodalny model podglądowy do rozumienia i generowania obraz-tekst, odpowiedni do wizualnego QA i zrozumienia treści.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL to dojrzały model multimodalny do produkcyjnego rozumienia i rozpoznawania obraz-tekst.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B to open-source'owy model multimodalny do rozumienia i rozumowania obraz-tekst.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking to flagowy model natywny pełnomodalny z ujednoliconym modelowaniem tekstu, obrazu, dźwięku i wideo. Zapewnia szerokie ulepszenia możliwości w złożonych scenariuszach QA, twórczości i agentów.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview to flagowy model natywny pełnomodalny z ujednoliconym modelowaniem tekstu, obrazu, dźwięku i wideo. Zapewnia szerokie ulepszenia możliwości w złożonych scenariuszach QA, twórczości i agentów.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K to model dialogowy z osobowością do budowania postaci IP i długoterminowych rozmów towarzyskich.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview to model podglądowy do tworzenia postaci i fabuły, przeznaczony do oceny funkcji i testów.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K to model osobowościowy do powieści i tworzenia fabuły, odpowiedni do generowania długich historii.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit to model edycji obrazu obsługujący wymazywanie, przemalowywanie i generowanie wariantów.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K to lekki model ogólnego przeznaczenia do codziennego QA i generowania treści przy ograniczonym budżecie.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K to lekki model wysokiej wydajności do scenariuszy wrażliwych na opóźnienia i koszty.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K został stworzony do długich powieści i fabuł IP z narracją wielopostaciową.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K to model bez opłat za I/O do rozumienia długich tekstów i testów na dużą skalę.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K to darmowy, szybki model do codziennych rozmów i lekkich zadań tekstowych.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K to model o wysokiej równoczesności i dużej wartości do usług online na dużą skalę i aplikacji korporacyjnych.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
446
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
447
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Oficjalna usługa modelu {{name}}",
3
3
  "about.title": "O nas",
4
4
  "advancedSettings": "Ustawienia zaawansowane",
5
+ "agentCronJobs.addJob": "Dodaj zadanie cykliczne",
6
+ "agentCronJobs.confirmDelete": "Czy na pewno chcesz usunąć to zadanie cykliczne?",
7
+ "agentCronJobs.content": "Treść zadania",
8
+ "agentCronJobs.create": "Utwórz",
9
+ "agentCronJobs.createSuccess": "Zadanie cykliczne zostało pomyślnie utworzone",
10
+ "agentCronJobs.deleteJob": "Usuń zadanie",
11
+ "agentCronJobs.deleteSuccess": "Zadanie cykliczne zostało pomyślnie usunięte",
12
+ "agentCronJobs.description": "Zautomatyzuj swojego agenta za pomocą zaplanowanych uruchomień",
13
+ "agentCronJobs.disable": "Wyłącz",
14
+ "agentCronJobs.editJob": "Edytuj zadanie cykliczne",
15
+ "agentCronJobs.empty.description": "Utwórz swoje pierwsze zadanie cykliczne, aby zautomatyzować agenta",
16
+ "agentCronJobs.empty.title": "Brak zadań cyklicznych",
17
+ "agentCronJobs.enable": "Włącz",
18
+ "agentCronJobs.form.content.placeholder": "Wprowadź polecenie lub instrukcję dla agenta",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Pozostaw puste dla nieograniczonej liczby",
20
+ "agentCronJobs.form.name.placeholder": "Wprowadź nazwę zadania",
21
+ "agentCronJobs.form.timeRange.end": "Czas zakończenia",
22
+ "agentCronJobs.form.timeRange.start": "Czas rozpoczęcia",
23
+ "agentCronJobs.form.validation.contentRequired": "Treść zadania jest wymagana",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "Czas rozpoczęcia musi być wcześniejszy niż czas zakończenia",
25
+ "agentCronJobs.form.validation.nameRequired": "Nazwa zadania jest wymagana",
26
+ "agentCronJobs.interval.12hours": "Co 12 godzin",
27
+ "agentCronJobs.interval.1hour": "Co godzinę",
28
+ "agentCronJobs.interval.30min": "Co 30 minut",
29
+ "agentCronJobs.interval.6hours": "Co 6 godzin",
30
+ "agentCronJobs.interval.daily": "Codziennie",
31
+ "agentCronJobs.interval.weekly": "Co tydzień",
32
+ "agentCronJobs.lastExecuted": "Ostatnie uruchomienie",
33
+ "agentCronJobs.maxExecutions": "Maksymalna liczba uruchomień",
34
+ "agentCronJobs.name": "Nazwa zadania",
35
+ "agentCronJobs.never": "Nigdy",
36
+ "agentCronJobs.remainingExecutions": "Pozostało: {{count}}",
37
+ "agentCronJobs.save": "Zapisz",
38
+ "agentCronJobs.schedule": "Harmonogram",
39
+ "agentCronJobs.status.depleted": "Wyczerpano",
40
+ "agentCronJobs.status.disabled": "Wyłączone",
41
+ "agentCronJobs.status.enabled": "Włączone",
42
+ "agentCronJobs.timeRange": "Zakres czasu",
43
+ "agentCronJobs.title": "Zadania cykliczne",
44
+ "agentCronJobs.unlimited": "Nieograniczone",
45
+ "agentCronJobs.updateSuccess": "Zadanie cykliczne zostało pomyślnie zaktualizowane",
46
+ "agentCronJobs.weekdays": "Dni robocze",
5
47
  "agentInfoDescription.basic.avatar": "Awatar",
6
48
  "agentInfoDescription.basic.description": "Opis",
7
49
  "agentInfoDescription.basic.name": "Nazwa",
@@ -46,7 +88,7 @@
46
88
  "danger.reset.action": "Zresetuj teraz",
47
89
  "danger.reset.confirm": "Zresetować wszystkie ustawienia?",
48
90
  "danger.reset.currentVersion": "Aktualna wersja",
49
- "danger.reset.desc": "Przywróć wszystkie ustawienia do wartości domyślnych. Twoje dane nie zostaną usunięte.",
91
+ "danger.reset.desc": "Przywróć wszystkie ustawienia domyślne. Twoje dane nie zostaną usunięte.",
50
92
  "danger.reset.success": "Wszystkie ustawienia zostały zresetowane",
51
93
  "danger.reset.title": "Zresetuj wszystkie ustawienia",
52
94
  "defaultAgent.model.desc": "Domyślny model używany przy tworzeniu nowego agenta",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Serviços Empresariais",
157
157
  "mcp.categories.developer.description": "Ferramentas e Serviços para Desenvolvedores",
158
158
  "mcp.categories.developer.name": "Ferramentas de Desenvolvimento",
159
+ "mcp.categories.discover.description": "Servidores MCP recomendados e em alta",
160
+ "mcp.categories.discover.name": "Descobrir",
159
161
  "mcp.categories.gaming-entertainment.description": "Jogos, Entretenimento e Atividades de Lazer",
160
162
  "mcp.categories.gaming-entertainment.name": "Jogos e Entretenimento",
161
163
  "mcp.categories.health-wellness.description": "Saúde, Fitness e Bem-Estar",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Habilidades Validadas",
344
346
  "mcp.sorts.promptsCount": "Número de Prompts",
345
347
  "mcp.sorts.ratingCount": "Número de Avaliações",
348
+ "mcp.sorts.recommended": "Recomendado",
346
349
  "mcp.sorts.resourcesCount": "Número de Recursos",
347
350
  "mcp.sorts.toolsCount": "Número de Ferramentas",
348
351
  "mcp.sorts.updatedAt": "Atualizados Recentemente",
@@ -18,6 +18,8 @@
18
18
  "empty": "Nenhum arquivo ou pasta foi enviado ainda.",
19
19
  "header.actions.builtInBlockList.filtered": "{{ignored}} arquivos filtrados (de {{total}} no total)",
20
20
  "header.actions.connect": "Conectar...",
21
+ "header.actions.createFolderError": "Falha ao criar a pasta",
22
+ "header.actions.creatingFolder": "Criando pasta...",
21
23
  "header.actions.gitignore.apply": "Aplicar Regras",
22
24
  "header.actions.gitignore.cancel": "Ignorar Regras",
23
25
  "header.actions.gitignore.content": "Arquivo .gitignore detectado ({{count}} arquivos no total). Deseja aplicar as regras de exclusão?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,6 +471,47 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem, com geração altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
475
+ "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] é um modelo de geração de imagens com 12 bilhões de parâmetros, projetado para saída rápida e de alta qualidade.",
479
+ "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
+ "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês e inglês, e edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
+ "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com renderização impressionante de texto em chinês e estilos visuais diversos.",
484
+ "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
+ "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
487
+ "flux-kontext-pro.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
488
+ "flux-merged.description": "FLUX.1-merged combina os recursos profundos explorados no \"DEV\" com as vantagens de alta velocidade do \"Schnell\", ampliando os limites de desempenho e expandindo as aplicações.",
489
+ "flux-pro-1.1-ultra.description": "Geração de imagens em ultra-alta resolução com saída de 4MP, produzindo imagens nítidas em 10 segundos.",
490
+ "flux-pro-1.1.description": "Modelo profissional de geração de imagens atualizado, com excelente qualidade e aderência precisa aos comandos.",
491
+ "flux-pro.description": "Modelo comercial de geração de imagens de alto nível, com qualidade incomparável e saídas diversas.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] é o modelo de código aberto mais avançado com poucas etapas, superando concorrentes similares e até modelos não destilados como Midjourney v6.0 e DALL-E 3 (HD). É ajustado para preservar a diversidade do pré-treinamento, melhorando significativamente a qualidade visual, seguimento de instruções, variação de tamanho/aspecto, manipulação de fontes e diversidade de saída.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell é um modelo de geração de imagens de alto desempenho para saídas rápidas e com múltiplos estilos.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) oferece desempenho estável e ajustável para tarefas complexas.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferece suporte multimodal robusto para tarefas complexas.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para escalabilidade em tarefas amplas.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente para escalabilidade em aplicações amplas.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 é um modelo multimodal eficiente, projetado para implantação em larga escala.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 é o modelo experimental mais recente, com avanços notáveis em casos de uso de texto e multimodais.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B é um modelo multimodal eficiente, projetado para implantação em larga escala.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B é um modelo multimodal eficiente para escalabilidade em aplicações amplas.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 oferece processamento multimodal otimizado para tarefas complexas.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash é o modelo multimodal mais recente do Google, com processamento rápido e suporte a entradas de texto, imagem e vídeo para escalabilidade eficiente em tarefas.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 é uma solução de IA multimodal escalável para tarefas complexas.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 é o modelo mais recente pronto para produção, com saída de maior qualidade, especialmente em matemática, contexto longo e tarefas visuais.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 oferece processamento multimodal robusto com maior flexibilidade para desenvolvimento de aplicativos.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica as otimizações mais recentes para processamento multimodal mais eficiente.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo um modelo multimodal de porte médio ideal para tarefas complexas.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash com suporte à geração de imagens.",
511
+ "gemini-2.0-flash-exp.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
512
+ "gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
513
+ "gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
474
515
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
475
516
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
476
517
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -2,6 +2,48 @@
2
2
  "_cloud.officialProvider": "Serviço Oficial de Modelos {{name}}",
3
3
  "about.title": "Sobre",
4
4
  "advancedSettings": "Configurações Avançadas",
5
+ "agentCronJobs.addJob": "Adicionar Tarefa Agendada",
6
+ "agentCronJobs.confirmDelete": "Tem certeza de que deseja excluir esta tarefa agendada?",
7
+ "agentCronJobs.content": "Conteúdo da Tarefa",
8
+ "agentCronJobs.create": "Criar",
9
+ "agentCronJobs.createSuccess": "Tarefa agendada criada com sucesso",
10
+ "agentCronJobs.deleteJob": "Excluir Tarefa",
11
+ "agentCronJobs.deleteSuccess": "Tarefa agendada excluída com sucesso",
12
+ "agentCronJobs.description": "Automatize seu agente com execuções agendadas",
13
+ "agentCronJobs.disable": "Desativar",
14
+ "agentCronJobs.editJob": "Editar Tarefa Agendada",
15
+ "agentCronJobs.empty.description": "Crie sua primeira tarefa agendada para automatizar seu agente",
16
+ "agentCronJobs.empty.title": "Nenhuma tarefa agendada ainda",
17
+ "agentCronJobs.enable": "Ativar",
18
+ "agentCronJobs.form.content.placeholder": "Insira o prompt ou instrução para o agente",
19
+ "agentCronJobs.form.maxExecutions.placeholder": "Deixe em branco para ilimitado",
20
+ "agentCronJobs.form.name.placeholder": "Insira o nome da tarefa",
21
+ "agentCronJobs.form.timeRange.end": "Hora de Término",
22
+ "agentCronJobs.form.timeRange.start": "Hora de Início",
23
+ "agentCronJobs.form.validation.contentRequired": "O conteúdo da tarefa é obrigatório",
24
+ "agentCronJobs.form.validation.invalidTimeRange": "A hora de início deve ser anterior à hora de término",
25
+ "agentCronJobs.form.validation.nameRequired": "O nome da tarefa é obrigatório",
26
+ "agentCronJobs.interval.12hours": "A cada 12 horas",
27
+ "agentCronJobs.interval.1hour": "A cada hora",
28
+ "agentCronJobs.interval.30min": "A cada 30 minutos",
29
+ "agentCronJobs.interval.6hours": "A cada 6 horas",
30
+ "agentCronJobs.interval.daily": "Diariamente",
31
+ "agentCronJobs.interval.weekly": "Semanalmente",
32
+ "agentCronJobs.lastExecuted": "Última Execução",
33
+ "agentCronJobs.maxExecutions": "Máximo de Execuções",
34
+ "agentCronJobs.name": "Nome da Tarefa",
35
+ "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
+ "agentCronJobs.save": "Salvar",
38
+ "agentCronJobs.schedule": "Agendar",
39
+ "agentCronJobs.status.depleted": "Esgotado",
40
+ "agentCronJobs.status.disabled": "Desativado",
41
+ "agentCronJobs.status.enabled": "Ativado",
42
+ "agentCronJobs.timeRange": "Intervalo de Tempo",
43
+ "agentCronJobs.title": "Tarefas Agendadas",
44
+ "agentCronJobs.unlimited": "Ilimitado",
45
+ "agentCronJobs.updateSuccess": "Tarefa agendada atualizada com sucesso",
46
+ "agentCronJobs.weekdays": "Dias da Semana",
5
47
  "agentInfoDescription.basic.avatar": "Avatar",
6
48
  "agentInfoDescription.basic.description": "Descrição",
7
49
  "agentInfoDescription.basic.name": "Nome",
@@ -156,6 +156,8 @@
156
156
  "mcp.categories.business.name": "Бизнес-сервисы",
157
157
  "mcp.categories.developer.description": "Инструменты и сервисы для разработчиков",
158
158
  "mcp.categories.developer.name": "Инструменты разработчика",
159
+ "mcp.categories.discover.description": "Рекомендуемые и популярные MCP-серверы",
160
+ "mcp.categories.discover.name": "Обзор",
159
161
  "mcp.categories.gaming-entertainment.description": "Игры, развлечения и досуг",
160
162
  "mcp.categories.gaming-entertainment.name": "Игры и развлечения",
161
163
  "mcp.categories.health-wellness.description": "Здоровье, фитнес и благополучие",
@@ -343,6 +345,7 @@
343
345
  "mcp.sorts.isValidated": "Проверенные навыки",
344
346
  "mcp.sorts.promptsCount": "Количество подсказок",
345
347
  "mcp.sorts.ratingCount": "Количество оценок",
348
+ "mcp.sorts.recommended": "Рекомендуемые",
346
349
  "mcp.sorts.resourcesCount": "Количество ресурсов",
347
350
  "mcp.sorts.toolsCount": "Количество инструментов",
348
351
  "mcp.sorts.updatedAt": "Недавно обновлённые",
@@ -18,6 +18,8 @@
18
18
  "empty": "Файлы или папки ещё не загружены.",
19
19
  "header.actions.builtInBlockList.filtered": "Отфильтровано {{ignored}} файлов (из {{total}} всего)",
20
20
  "header.actions.connect": "Подключиться...",
21
+ "header.actions.createFolderError": "Не удалось создать папку",
22
+ "header.actions.creatingFolder": "Создание папки...",
21
23
  "header.actions.gitignore.apply": "Применить правила",
22
24
  "header.actions.gitignore.cancel": "Игнорировать правила",
23
25
  "header.actions.gitignore.content": "Обнаружен файл .gitignore (всего {{count}} файлов). Применить правила игнорирования?",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
272
272
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
273
273
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, демонстрирующая улучшенные навыки и превосходящая предыдущий флагман Claude 3 Opus по многим метрикам.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая мгновенные ответы или углублённое мышление с точной настройкой.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она способна выдавать почти мгновенные ответы или пошаговые рассуждения, видимые пользователю. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах агентов.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и способность к длительным размышлениям.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель серии Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для выполнения высокосложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 самая интеллектуальная модель от Anthropic на сегодняшний день, обеспечивающая мгновенные ответы или пошаговое рассуждение с точной настройкой для пользователей API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговое мышление с видимым процессом рассуждения.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
289
289
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
358
- "deepseek-chat.description": "DeepSeek V3.2 сочетает в себе баланс между рассуждением и длиной вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках среди open-source агентов.",
358
+ "deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности и сильные навыки кодирования, улучшая соответствие предпочтениям. DeepSeek-V2.5 также улучшает письмо и следование инструкциям.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
379
379
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
382
382
  "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и логикой, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального рассуждения, расширяя возможности визуальных вопросов и ответов.",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и логикой, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального рассуждения, расширяя возможности визуальных вопросов и ответов.",
444
444
  "emohaa.description": "Emohaa — модель для поддержки психического здоровья с профессиональными навыками консультирования, помогающая пользователям разобраться в эмоциональных проблемах.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B — легковесная модель с открытым исходным кодом для локального и кастомизированного развертывания.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B — крупная модель с открытым исходным кодом, обладающая улучшенными возможностями понимания и генерации.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B — сверхкрупная модель MoE от Baidu ERNIE с выдающимися способностями к рассуждению.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview — модель с контекстом 8K для предварительной оценки возможностей ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Предварительная версия ERNIE 4.5 Turbo 128K с возможностями уровня релиза, подходящая для интеграции и тестирования.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K — высокопроизводительная универсальная модель с поддержкой поиска и вызова инструментов для задач Вопрос-Ответ, программирования и агентов.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K — версия со средним контекстом для Вопрос-Ответ, поиска в базе знаний и многотурового диалога.",
452
+ "ernie-4.5-turbo-latest.description": "Актуальная версия ERNIE 4.5 Turbo с оптимизированной общей производительностью, идеально подходит в качестве основной модели для продакшена.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview — предварительная мультимодальная модель с контекстом 32K для оценки возможностей в области зрения.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K — мультимодальная модель со средне-длинным контекстом для понимания длинных документов и изображений.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest — новейшая мультимодальная модель с улучшенным пониманием изображений и текста, а также рассуждением.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview — предварительная мультимодальная модель для понимания и генерации изображений и текста, подходит для визуального Вопрос-Ответ и анализа контента.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL — зрелая мультимодальная модель для промышленного понимания и распознавания изображений и текста.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B — мультимодальная модель с открытым исходным кодом для понимания изображений и текста, а также рассуждения.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking — флагманская модель с нативной полной мультимодальностью, объединяющая текст, изображение, аудио и видео. Обеспечивает широкие улучшения для сложных задач Вопрос-Ответ, творчества и агентов.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview — предварительная версия флагманской мультимодальной модели с объединением текста, изображения, аудио и видео. Обеспечивает широкие улучшения для сложных задач Вопрос-Ответ, творчества и агентов.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K — модель диалога с персонажем для создания IP-образов и длительного общения.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview — предварительная модель для создания персонажей и сюжетов, предназначенная для оценки и тестирования.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K — модель персонажа для написания романов и создания сюжетов, подходит для генерации длинных историй.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit — модель редактирования изображений с поддержкой стирания, перерисовки и генерации вариантов.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K — легковесная универсальная модель для повседневных задач Вопрос-Ответ и генерации контента с ограниченным бюджетом.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K — легковесная высокопроизводительная модель для сценариев с чувствительностью к задержке и стоимости.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K предназначена для написания длинных романов и IP-сюжетов с участием нескольких персонажей.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K — модель без платы за ввод/вывод для понимания длинных текстов и масштабного тестирования.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K — бесплатная и быстрая модель для повседневного общения и простых текстовых задач.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K — модель с высокой пропускной способностью и ценностью для масштабных онлайн-сервисов и корпоративных приложений.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
446
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
447
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
- "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
33
32
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
34
33
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
35
34
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",