@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.266

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +1 -0
  4. package/locales/ar/modelProvider.json +20 -0
  5. package/locales/ar/models.json +33 -10
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/providers.json +1 -0
  8. package/locales/ar/setting.json +2 -0
  9. package/locales/bg-BG/chat.json +1 -0
  10. package/locales/bg-BG/modelProvider.json +20 -0
  11. package/locales/bg-BG/models.json +27 -7
  12. package/locales/bg-BG/plugin.json +1 -0
  13. package/locales/bg-BG/providers.json +1 -0
  14. package/locales/bg-BG/setting.json +2 -0
  15. package/locales/de-DE/chat.json +1 -0
  16. package/locales/de-DE/modelProvider.json +20 -0
  17. package/locales/de-DE/models.json +44 -10
  18. package/locales/de-DE/plugin.json +1 -0
  19. package/locales/de-DE/providers.json +1 -0
  20. package/locales/de-DE/setting.json +2 -0
  21. package/locales/en-US/chat.json +1 -0
  22. package/locales/en-US/modelProvider.json +20 -0
  23. package/locales/en-US/models.json +10 -10
  24. package/locales/en-US/providers.json +1 -0
  25. package/locales/en-US/setting.json +2 -1
  26. package/locales/es-ES/chat.json +1 -0
  27. package/locales/es-ES/modelProvider.json +20 -0
  28. package/locales/es-ES/models.json +53 -10
  29. package/locales/es-ES/plugin.json +1 -0
  30. package/locales/es-ES/providers.json +1 -0
  31. package/locales/es-ES/setting.json +2 -0
  32. package/locales/fa-IR/chat.json +1 -0
  33. package/locales/fa-IR/modelProvider.json +20 -0
  34. package/locales/fa-IR/models.json +33 -10
  35. package/locales/fa-IR/plugin.json +1 -0
  36. package/locales/fa-IR/providers.json +1 -0
  37. package/locales/fa-IR/setting.json +2 -0
  38. package/locales/fr-FR/chat.json +1 -0
  39. package/locales/fr-FR/modelProvider.json +20 -0
  40. package/locales/fr-FR/models.json +27 -7
  41. package/locales/fr-FR/plugin.json +1 -0
  42. package/locales/fr-FR/providers.json +1 -0
  43. package/locales/fr-FR/setting.json +2 -0
  44. package/locales/it-IT/chat.json +1 -0
  45. package/locales/it-IT/modelProvider.json +20 -0
  46. package/locales/it-IT/models.json +10 -10
  47. package/locales/it-IT/plugin.json +1 -0
  48. package/locales/it-IT/providers.json +1 -0
  49. package/locales/it-IT/setting.json +2 -0
  50. package/locales/ja-JP/chat.json +1 -0
  51. package/locales/ja-JP/modelProvider.json +20 -0
  52. package/locales/ja-JP/models.json +5 -10
  53. package/locales/ja-JP/plugin.json +1 -0
  54. package/locales/ja-JP/providers.json +1 -0
  55. package/locales/ja-JP/setting.json +2 -0
  56. package/locales/ko-KR/chat.json +1 -0
  57. package/locales/ko-KR/modelProvider.json +20 -0
  58. package/locales/ko-KR/models.json +36 -10
  59. package/locales/ko-KR/plugin.json +1 -0
  60. package/locales/ko-KR/providers.json +1 -0
  61. package/locales/ko-KR/setting.json +2 -0
  62. package/locales/nl-NL/chat.json +1 -0
  63. package/locales/nl-NL/modelProvider.json +20 -0
  64. package/locales/nl-NL/models.json +35 -4
  65. package/locales/nl-NL/plugin.json +1 -0
  66. package/locales/nl-NL/providers.json +1 -0
  67. package/locales/nl-NL/setting.json +2 -0
  68. package/locales/pl-PL/chat.json +1 -0
  69. package/locales/pl-PL/modelProvider.json +20 -0
  70. package/locales/pl-PL/models.json +37 -7
  71. package/locales/pl-PL/plugin.json +1 -0
  72. package/locales/pl-PL/providers.json +1 -0
  73. package/locales/pl-PL/setting.json +2 -0
  74. package/locales/pt-BR/chat.json +1 -0
  75. package/locales/pt-BR/modelProvider.json +20 -0
  76. package/locales/pt-BR/models.json +51 -9
  77. package/locales/pt-BR/plugin.json +1 -0
  78. package/locales/pt-BR/providers.json +1 -0
  79. package/locales/pt-BR/setting.json +2 -0
  80. package/locales/ru-RU/chat.json +1 -0
  81. package/locales/ru-RU/modelProvider.json +20 -0
  82. package/locales/ru-RU/models.json +48 -7
  83. package/locales/ru-RU/plugin.json +1 -0
  84. package/locales/ru-RU/providers.json +1 -0
  85. package/locales/ru-RU/setting.json +2 -0
  86. package/locales/tr-TR/chat.json +1 -0
  87. package/locales/tr-TR/modelProvider.json +20 -0
  88. package/locales/tr-TR/models.json +48 -7
  89. package/locales/tr-TR/plugin.json +1 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/tr-TR/setting.json +2 -0
  92. package/locales/vi-VN/chat.json +1 -0
  93. package/locales/vi-VN/modelProvider.json +20 -0
  94. package/locales/vi-VN/models.json +5 -5
  95. package/locales/vi-VN/plugin.json +1 -0
  96. package/locales/vi-VN/providers.json +1 -0
  97. package/locales/vi-VN/setting.json +2 -0
  98. package/locales/zh-CN/modelProvider.json +20 -20
  99. package/locales/zh-CN/models.json +49 -8
  100. package/locales/zh-CN/providers.json +1 -0
  101. package/locales/zh-CN/setting.json +2 -1
  102. package/locales/zh-TW/chat.json +1 -0
  103. package/locales/zh-TW/modelProvider.json +20 -0
  104. package/locales/zh-TW/models.json +29 -10
  105. package/locales/zh-TW/plugin.json +1 -0
  106. package/locales/zh-TW/providers.json +1 -0
  107. package/locales/zh-TW/setting.json +2 -0
  108. package/package.json +1 -1
  109. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
  110. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
  111. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
  112. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
  113. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
  114. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
  115. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
  116. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
  117. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
  118. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
  119. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
  120. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
  121. package/src/components/InlineRename/index.tsx +121 -0
  122. package/src/features/NavPanel/components/NavItem.tsx +1 -1
  123. package/src/locales/default/setting.ts +2 -0
  124. package/src/store/agent/slices/cron/action.ts +108 -0
  125. package/src/store/agent/slices/cron/index.ts +1 -0
  126. package/src/store/agent/store.ts +3 -0
  127. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
  128. package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
  129. package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku, widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania, zapewniający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z możliwością pogłębionego rozumowania.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu oraz silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, zwiększając dokładność.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -471,6 +471,36 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe, umożliwiając precyzyjne i wysokiej jakości generowanie obrazów na podstawie promptów.",
475
+ "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] to model generowania obrazów z 12 miliardami parametrów, zaprojektowany do szybkiego i wysokiej jakości generowania.",
479
+ "fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
480
+ "fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
482
+ "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obrót i inne.",
483
+ "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
484
+ "flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
485
+ "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
486
+ "flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
487
+ "flux-kontext-pro.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
488
+ "flux-merged.description": "FLUX.1-merged łączy głębokie funkcje z wersji „DEV” z szybkością „Schnell”, rozszerzając granice wydajności i zastosowań.",
489
+ "flux-pro-1.1-ultra.description": "Generowanie obrazów w ultra wysokiej rozdzielczości z wyjściem 4MP, tworzące ostre obrazy w 10 sekund.",
490
+ "flux-pro-1.1.description": "Ulepszony model generowania obrazów klasy profesjonalnej z doskonałą jakością i precyzyjnym przestrzeganiem promptów.",
491
+ "flux-pro.description": "Model generowania obrazów klasy komercyjnej najwyższej jakości, oferujący niezrównaną jakość i różnorodność wyników.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] to najbardziej zaawansowany open-source’owy model kilkuetapowy, przewyższający konkurencję, a nawet silne modele niedestylowane jak Midjourney v6.0 i DALL-E 3 (HD). Zoptymalizowany pod kątem zachowania różnorodności pretreningu, znacznie poprawia jakość wizualną, przestrzeganie instrukcji, obsługę rozmiarów/aspektów, czcionek i różnorodność wyników.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell to model generowania obrazów o wysokiej wydajności, zapewniający szybkie wyniki w różnych stylach.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) zapewnia stabilną, konfigurowalną wydajność w złożonych zadaniach.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferuje silne wsparcie multimodalne dla złożonych zadań.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro to wysokowydajny model AI od Google, zaprojektowany do skalowania szerokiego zakresu zadań.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 to wydajny model multimodalny do szerokiego zastosowania.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 to wydajny model multimodalny zaprojektowany do szerokiego wdrożenia.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 to najnowszy model eksperymentalny z zauważalnymi ulepszeniami w zastosowaniach tekstowych i multimodalnych.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny zaprojektowany do szerokiego wdrożenia.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny do szerokiego zastosowania.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 zapewnia zoptymalizowane przetwarzanie multimodalne dla złożonych zadań.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash to najnowszy model AI od Google z szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, umożliwiając efektywne skalowanie zadań.",
474
504
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
475
505
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
476
506
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Brak wyników",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "System Lokalny",
95
+ "builtins.lobe-notebook.actions.collapse": "Zwiń",
95
96
  "builtins.lobe-notebook.actions.copy": "Kopiuj",
96
97
  "builtins.lobe-notebook.actions.creating": "Tworzenie dokumentu...",
97
98
  "builtins.lobe-notebook.actions.edit": "Edytuj",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
+ "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
32
33
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
33
34
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
34
35
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Maksymalna liczba uruchomień",
34
34
  "agentCronJobs.name": "Nazwa zadania",
35
35
  "agentCronJobs.never": "Nigdy",
36
+ "agentCronJobs.noExecutionResults": "Brak wyników wykonania",
36
37
  "agentCronJobs.remainingExecutions": "Pozostało: {{count}}",
37
38
  "agentCronJobs.save": "Zapisz",
38
39
  "agentCronJobs.schedule": "Harmonogram",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Zakres czasu",
43
44
  "agentCronJobs.title": "Zadania cykliczne",
44
45
  "agentCronJobs.unlimited": "Nieograniczone",
46
+ "agentCronJobs.unnamedTask": "Zadanie bez nazwy",
45
47
  "agentCronJobs.updateSuccess": "Zadanie cykliczne zostało pomyślnie zaktualizowane",
46
48
  "agentCronJobs.weekdays": "Dni robocze",
47
49
  "agentInfoDescription.basic.avatar": "Awatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Intensidade do Raciocínio",
64
64
  "extendParams.textVerbosity.title": "Nível de Detalhamento do Texto",
65
65
  "extendParams.thinking.title": "Chave de Pensamento Profundo",
66
+ "extendParams.thinkingBudget.title": "Orçamento de Ideias",
66
67
  "extendParams.thinkingLevel.title": "Nível de Pensamento",
67
68
  "extendParams.title": "Recursos Estendidos do Modelo",
68
69
  "extendParams.urlContext.desc": "Quando ativado, links da web serão automaticamente analisados para recuperar o conteúdo real da página",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Nome de Implantação do Modelo",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Insira o nome de exibição do modelo, por exemplo, ChatGPT, GPT-4, etc.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Nome de Exibição do Modelo",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Escolha os parâmetros estendidos compatíveis com o modelo. Passe o mouse sobre uma opção para visualizar os controles. Configurações incorretas podem causar falhas na solicitação.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Para modelos Claude; pode reduzir custos e acelerar as respostas.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Para modelos Claude, DeepSeek e outros com raciocínio; ativa um pensamento mais profundo.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Para a série GPT-5; controla a intensidade do raciocínio.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Para a série GPT-5.1; controla a intensidade do raciocínio.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Para a série GPT-5.2 Pro; controla a intensidade do raciocínio.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Para a série GPT-5.2; controla a intensidade do raciocínio.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Para modelos de geração de imagem Gemini; controla a proporção da imagem gerada.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Para modelos de geração de imagem Gemini 3; controla a resolução das imagens geradas.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Para Claude, Qwen3 e similares; controla o orçamento de tokens para raciocínio.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Para modelos da OpenAI e outros com capacidade de raciocínio; controla o esforço de raciocínio.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Para a série GPT-5+; controla a verbosidade da saída.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Para alguns modelos Doubao; permite que o modelo decida se deve pensar profundamente.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para a série Gemini; controla o orçamento de pensamento.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla a profundidade do pensamento.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla a profundidade do pensamento.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para a série Gemini; permite fornecer contexto via URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Selecione os parâmetros estendidos a serem ativados",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Pré-visualização indisponível",
216
+ "providerModels.item.modelConfig.extendParams.title": "Parâmetros Estendidos",
197
217
  "providerModels.item.modelConfig.files.extra": "A implementação atual de upload de arquivos é apenas uma solução temporária, limitada a testes próprios. Aguarde por funcionalidades completas de upload em futuras versões.",
198
218
  "providerModels.item.modelConfig.files.title": "Suporte a Upload de Arquivos",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Esta configuração apenas habilita a capacidade do modelo de usar ferramentas, permitindo a adição de habilidades do tipo ferramenta. No entanto, a real capacidade de uso depende inteiramente do modelo; teste por conta própria.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem, com geração altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela equipe Seed da ByteDance, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
- "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês e inglês, e edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
- "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com renderização impressionante de texto em chinês e estilos visuais diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagem da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
483
+ "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
484
484
  "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
486
  "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@@ -512,6 +512,48 @@
512
512
  "gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
513
513
  "gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, com capacidades completas.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, com capacidades completas.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash é o modelo mais inteligente já criado para velocidade, combinando inteligência de ponta com excelente integração de busca.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
533
+ "gemini-flash-latest.description": "Última versão do Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Última versão do Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Última versão do Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B é uma opção econômica para tarefas de pequena a média escala.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B é otimizado para tarefas específicas e integração com ferramentas.",
538
+ "gemma2.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
539
+ "gemma2:27b.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
540
+ "gemma2:2b.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
541
+ "generalv3.5.description": "Spark Max é a versão mais completa, com suporte a busca na web e diversos plugins integrados. Suas capacidades otimizadas, papéis de sistema e chamadas de função oferecem desempenho excelente em cenários de aplicação complexos.",
542
+ "generalv3.description": "Spark Pro é um LLM de alto desempenho otimizado para domínios profissionais, com foco em matemática, programação, saúde e educação. Inclui busca na web e plugins integrados como clima e data. Oferece desempenho forte e eficiente em perguntas e respostas complexas, compreensão de linguagem e criação avançada de texto, sendo ideal para usos profissionais.",
543
+ "glm-4-0520.description": "GLM-4-0520 é a versão mais recente do modelo, projetado para tarefas altamente complexas e diversas, com desempenho excelente.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 é um modelo GLM geral com suporte à geração e compreensão de texto multitarefa.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat tem desempenho forte em semântica, matemática, raciocínio, código e conhecimento. Também oferece navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio com textos longos, com suporte a 26 idiomas, incluindo japonês, coreano e alemão.",
546
+ "glm-4-air-250414.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
547
+ "glm-4-air.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
548
+ "glm-4-airx.description": "GLM-4-AirX é uma variante mais eficiente do GLM-4-Air, com raciocínio até 2,6x mais rápido.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools é um modelo de agente versátil otimizado para planejamento de instruções complexas e uso de ferramentas como navegação na web, explicação de código e geração de texto, adequado para execução multitarefa.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash é ideal para tarefas simples: o mais rápido e gratuito.",
551
+ "glm-4-flash.description": "GLM-4-Flash é ideal para tarefas simples: o mais rápido e gratuito.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX é uma versão aprimorada do Flash com raciocínio ultrarrápido.",
553
+ "glm-4-long.description": "GLM-4-Long oferece suporte a entradas ultralongas para tarefas de memória e processamento de documentos em larga escala.",
554
+ "glm-4-plus.description": "GLM-4-Plus é um modelo carro-chefe de alta inteligência com forte capacidade para textos longos e tarefas complexas, além de desempenho geral aprimorado.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
515
557
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
516
558
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
517
559
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Nenhum resultado",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Local",
95
+ "builtins.lobe-notebook.actions.collapse": "Recolher",
95
96
  "builtins.lobe-notebook.actions.copy": "Copiar",
96
97
  "builtins.lobe-notebook.actions.creating": "Criando documento...",
97
98
  "builtins.lobe-notebook.actions.edit": "Editar",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
+ "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
32
33
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
33
34
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
34
35
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Máximo de Execuções",
34
34
  "agentCronJobs.name": "Nome da Tarefa",
35
35
  "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.noExecutionResults": "Nenhum resultado de execução",
36
37
  "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
38
  "agentCronJobs.save": "Salvar",
38
39
  "agentCronJobs.schedule": "Agendar",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Intervalo de Tempo",
43
44
  "agentCronJobs.title": "Tarefas Agendadas",
44
45
  "agentCronJobs.unlimited": "Ilimitado",
46
+ "agentCronJobs.unnamedTask": "Tarefa sem nome",
45
47
  "agentCronJobs.updateSuccess": "Tarefa agendada atualizada com sucesso",
46
48
  "agentCronJobs.weekdays": "Dias da Semana",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Интенсивность мышления",
64
64
  "extendParams.textVerbosity.title": "Уровень детализации текста",
65
65
  "extendParams.thinking.title": "Переключатель глубокого мышления",
66
+ "extendParams.thinkingBudget.title": "Бюджет на размышления",
66
67
  "extendParams.thinkingLevel.title": "Уровень мышления",
67
68
  "extendParams.title": "Расширенные функции модели",
68
69
  "extendParams.urlContext.desc": "При включении веб-ссылки будут автоматически анализироваться для извлечения содержимого страницы",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Имя развертывания модели",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Введите отображаемое имя модели, например, ChatGPT, GPT-4 и т.д.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Отображаемое имя модели",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Выберите расширенные параметры, поддерживаемые моделью. Наведите курсор на опцию, чтобы просмотреть элементы управления. Неверные настройки могут привести к сбоям запроса.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Для моделей Claude; может снизить стоимость и ускорить ответы.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Для моделей Claude, DeepSeek и других с поддержкой рассуждений; активирует более глубокое мышление.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Для серии GPT-5; управляет интенсивностью рассуждений.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Для серии GPT-5.1; управляет интенсивностью рассуждений.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Для серии GPT-5.2 Pro; управляет интенсивностью рассуждений.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Для серии GPT-5.2; управляет интенсивностью рассуждений.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Для моделей генерации изображений Gemini; управляет соотношением сторон создаваемых изображений.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Для моделей генерации изображений Gemini 3; управляет разрешением создаваемых изображений.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Для моделей Claude, Qwen3 и аналогичных; управляет бюджетом токенов для рассуждений.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Для моделей OpenAI и других с поддержкой рассуждений; управляет усилиями на рассуждение.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Для серии GPT-5+; управляет подробностью вывода.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Для некоторых моделей Doubao; позволяет модели решать, нужно ли углублённое мышление.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Для серии Gemini; управляет бюджетом на размышления.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Для моделей Gemini 3 Flash Preview; управляет глубиной размышлений.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Для моделей Gemini 3 Pro Preview; управляет глубиной размышлений.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Для серии Gemini; поддерживает предоставление контекста по URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Выберите параметры для активации",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Предпросмотр недоступен",
216
+ "providerModels.item.modelConfig.extendParams.title": "Расширенные параметры",
197
217
  "providerModels.item.modelConfig.files.extra": "Текущая реализация загрузки файлов является временным решением, предназначенным только для экспериментов. Полноценная поддержка загрузки будет добавлена позже.",
198
218
  "providerModels.item.modelConfig.files.title": "Поддержка загрузки файлов",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Эта настройка активирует возможность модели использовать инструменты. Однако фактическая поддержка зависит от самой модели. Пожалуйста, протестируйте самостоятельно.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
272
272
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
273
273
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим бенчмаркам.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она способна выдавать почти мгновенные ответы или пошаговые рассуждения, видимые пользователю. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах агентов.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая мгновенные ответы или углублённое мышление с тонкой настройкой.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель серии Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и способность к длительному размышлению.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для сверхсложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговое мышление с видимым процессом рассуждения.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 самая интеллектуальная модель Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое размышление с тонкой настройкой для пользователей API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
289
289
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
358
- "deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности и сильные навыки кодирования, улучшая соответствие предпочтениям. DeepSeek-V2.5 также улучшает письмо и следование инструкциям.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 сочетает в себе логическое мышление и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
379
379
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
- "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности, демонстрируя лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -471,6 +471,47 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 от ByteDance Seed поддерживает ввод текста и изображений для высококачественной и управляемой генерации изображений по подсказкам.",
475
+ "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] — модель генерации изображений с 12 миллиардами параметров, созданная для быстрой и качественной генерации.",
479
+ "fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
480
+ "fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
482
+ "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском/английском, перенос стиля, поворот и многое другое.",
483
+ "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с отличной отрисовкой китайского текста и разнообразными визуальными стилями.",
484
+ "flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
485
+ "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
486
+ "flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
487
+ "flux-kontext-pro.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
488
+ "flux-merged.description": "FLUX.1-merged объединяет глубокие возможности, исследованные в «DEV», с высокой скоростью «Schnell», расширяя границы производительности и области применения.",
489
+ "flux-pro-1.1-ultra.description": "Генерация изображений сверхвысокого разрешения с выходом 4 МП, создаёт чёткие изображения за 10 секунд.",
490
+ "flux-pro-1.1.description": "Обновлённая профессиональная модель генерации изображений с отличным качеством и точным следованием подсказкам.",
491
+ "flux-pro.description": "Коммерческая модель генерации изображений высшего уровня с непревзойдённым качеством и разнообразием результатов.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] — самая продвинутая open-source модель с малым числом шагов, превосходящая аналогичные модели и даже сильные недистиллированные модели, такие как Midjourney v6.0 и DALL-E 3 (HD). Тщательно настроена для сохранения разнообразия предобучения, значительно улучшая визуальное качество, следование инструкциям, вариативность размеров/пропорций, работу со шрифтами и разнообразие вывода.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell — высокопроизводительная модель генерации изображений для быстрой генерации в разных стилях.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) обеспечивает стабильную и настраиваемую производительность для сложных задач.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) обеспечивает мощную мультимодальную поддержку для сложных задач.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro — высокопроизводительная модель ИИ от Google, предназначенная для масштабирования широкого спектра задач.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 — эффективная мультимодальная модель для масштабируемого применения.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 — эффективная мультимодальная модель, созданная для широкого внедрения.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 — новейшая экспериментальная модель с заметными улучшениями в текстовых и мультимодальных сценариях.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель, созданная для широкого внедрения.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель для масштабируемого применения.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 обеспечивает оптимизированную мультимодальную обработку для сложных задач.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash — новейшая мультимодальная модель ИИ от Google с быстрой обработкой, поддержкой текста, изображений и видео для эффективного масштабирования задач.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 — масштабируемое мультимодальное ИИ-решение для сложных задач.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 — новейшая модель, готовая к производству, с более качественным выводом, особенно в математике, длинном контексте и визуальных задачах.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 обеспечивает мощную мультимодальную обработку с большей гибкостью для разработки приложений.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 использует последние оптимизации для более эффективной мультимодальной обработки.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов, являясь идеальной мультимодальной моделью среднего размера для сложных задач.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Экспериментальная модель Gemini 2.0 Flash с поддержкой генерации изображений.",
511
+ "gemini-2.0-flash-exp.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
512
+ "gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
513
+ "gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
474
515
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
475
516
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
476
517
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Нет результатов",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Локальная система",
95
+ "builtins.lobe-notebook.actions.collapse": "Свернуть",
95
96
  "builtins.lobe-notebook.actions.copy": "Копировать",
96
97
  "builtins.lobe-notebook.actions.creating": "Создание документа...",
97
98
  "builtins.lobe-notebook.actions.edit": "Редактировать",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
+ "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
32
33
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
33
34
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
34
35
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Максимум запусков",
34
34
  "agentCronJobs.name": "Название задачи",
35
35
  "agentCronJobs.never": "Никогда",
36
+ "agentCronJobs.noExecutionResults": "Результаты выполнения отсутствуют",
36
37
  "agentCronJobs.remainingExecutions": "Осталось: {{count}}",
37
38
  "agentCronJobs.save": "Сохранить",
38
39
  "agentCronJobs.schedule": "Расписание",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Промежуток времени",
43
44
  "agentCronJobs.title": "Запланированные задачи",
44
45
  "agentCronJobs.unlimited": "Неограниченно",
46
+ "agentCronJobs.unnamedTask": "Безымянная задача",
45
47
  "agentCronJobs.updateSuccess": "Запланированная задача успешно обновлена",
46
48
  "agentCronJobs.weekdays": "Будние дни",
47
49
  "agentInfoDescription.basic.avatar": "Аватар",