@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.273

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (90) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/discover.json +2 -2
  5. package/locales/ar/models.json +38 -9
  6. package/locales/ar/onboarding.json +1 -1
  7. package/locales/ar/providers.json +0 -1
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/discover.json +2 -2
  10. package/locales/bg-BG/models.json +45 -10
  11. package/locales/bg-BG/onboarding.json +1 -1
  12. package/locales/bg-BG/providers.json +0 -1
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/discover.json +2 -2
  15. package/locales/de-DE/models.json +34 -9
  16. package/locales/de-DE/onboarding.json +3 -0
  17. package/locales/de-DE/providers.json +0 -1
  18. package/locales/en-US/discover.json +2 -2
  19. package/locales/en-US/models.json +10 -10
  20. package/locales/en-US/providers.json +0 -1
  21. package/locales/es-ES/common.json +2 -0
  22. package/locales/es-ES/discover.json +2 -2
  23. package/locales/es-ES/models.json +29 -10
  24. package/locales/es-ES/onboarding.json +3 -0
  25. package/locales/es-ES/providers.json +0 -1
  26. package/locales/fa-IR/common.json +2 -0
  27. package/locales/fa-IR/discover.json +2 -2
  28. package/locales/fa-IR/models.json +33 -10
  29. package/locales/fa-IR/onboarding.json +3 -0
  30. package/locales/fa-IR/providers.json +0 -1
  31. package/locales/fr-FR/common.json +2 -0
  32. package/locales/fr-FR/discover.json +2 -2
  33. package/locales/fr-FR/models.json +45 -10
  34. package/locales/fr-FR/onboarding.json +3 -0
  35. package/locales/fr-FR/providers.json +0 -1
  36. package/locales/it-IT/common.json +2 -0
  37. package/locales/it-IT/discover.json +2 -2
  38. package/locales/it-IT/models.json +5 -10
  39. package/locales/it-IT/onboarding.json +3 -0
  40. package/locales/it-IT/providers.json +0 -1
  41. package/locales/ja-JP/common.json +2 -0
  42. package/locales/ja-JP/discover.json +2 -2
  43. package/locales/ja-JP/models.json +34 -5
  44. package/locales/ja-JP/onboarding.json +3 -0
  45. package/locales/ja-JP/providers.json +0 -1
  46. package/locales/ko-KR/common.json +2 -0
  47. package/locales/ko-KR/discover.json +2 -2
  48. package/locales/ko-KR/models.json +5 -11
  49. package/locales/ko-KR/onboarding.json +3 -0
  50. package/locales/ko-KR/providers.json +0 -1
  51. package/locales/nl-NL/common.json +2 -0
  52. package/locales/nl-NL/discover.json +2 -2
  53. package/locales/nl-NL/models.json +47 -6
  54. package/locales/nl-NL/onboarding.json +3 -0
  55. package/locales/nl-NL/providers.json +0 -1
  56. package/locales/pl-PL/common.json +2 -0
  57. package/locales/pl-PL/discover.json +2 -2
  58. package/locales/pl-PL/models.json +35 -10
  59. package/locales/pl-PL/onboarding.json +3 -0
  60. package/locales/pl-PL/providers.json +0 -1
  61. package/locales/pt-BR/common.json +2 -0
  62. package/locales/pt-BR/discover.json +2 -2
  63. package/locales/pt-BR/models.json +47 -9
  64. package/locales/pt-BR/onboarding.json +3 -0
  65. package/locales/pt-BR/providers.json +0 -1
  66. package/locales/ru-RU/common.json +2 -0
  67. package/locales/ru-RU/discover.json +2 -2
  68. package/locales/ru-RU/models.json +52 -10
  69. package/locales/ru-RU/onboarding.json +3 -0
  70. package/locales/ru-RU/providers.json +0 -1
  71. package/locales/tr-TR/common.json +2 -0
  72. package/locales/tr-TR/discover.json +2 -2
  73. package/locales/tr-TR/models.json +38 -10
  74. package/locales/tr-TR/onboarding.json +3 -0
  75. package/locales/tr-TR/providers.json +0 -1
  76. package/locales/vi-VN/common.json +2 -0
  77. package/locales/vi-VN/discover.json +2 -2
  78. package/locales/vi-VN/models.json +5 -5
  79. package/locales/vi-VN/onboarding.json +3 -0
  80. package/locales/vi-VN/providers.json +0 -1
  81. package/locales/zh-CN/discover.json +2 -2
  82. package/locales/zh-CN/models.json +41 -9
  83. package/locales/zh-CN/onboarding.json +3 -0
  84. package/locales/zh-CN/providers.json +0 -1
  85. package/locales/zh-TW/common.json +2 -0
  86. package/locales/zh-TW/discover.json +2 -2
  87. package/locales/zh-TW/models.json +43 -9
  88. package/locales/zh-TW/onboarding.json +3 -0
  89. package/locales/zh-TW/providers.json +0 -1
  90. package/package.json +1 -1
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania, zapewniający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z możliwością pogłębionego rozumowania.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
358
+ "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu i silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, aby zwiększyć dokładność.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe, umożliwiając precyzyjne i wysokiej jakości generowanie obrazów na podstawie promptów.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz oferujący wysoką kontrolę i jakość generowanych obrazów. Tworzy obrazy na podstawie opisów tekstowych.",
475
475
  "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
480
480
  "fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
482
- "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obrót i inne.",
483
- "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
482
+ "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący tekst w języku chińskim i angielskim oraz umożliwiający wysokiej jakości modyfikacje, takie jak transfer stylu i obrót obiektów.",
483
+ "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu w języku chińskim i różnorodne style wizualne.",
484
484
  "flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
485
485
  "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
486
486
  "flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@@ -501,6 +501,31 @@
501
501
  "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny do szerokiego zastosowania.",
502
502
  "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 zapewnia zoptymalizowane przetwarzanie multimodalne dla złożonych zadań.",
503
503
  "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash to najnowszy model AI od Google z szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, umożliwiając efektywne skalowanie zadań.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 to skalowalne rozwiązanie AI multimodalnej do złożonych zadań.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 to najnowszy model gotowy do produkcji, oferujący wyższą jakość wyników, szczególnie w zadaniach matematycznych, z długim kontekstem i przetwarzaniem obrazu.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 zapewnia silne przetwarzanie multimodalne z większą elastycznością dla twórców aplikacji.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 zawiera najnowsze optymalizacje dla bardziej efektywnego przetwarzania multimodalnego.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro obsługuje do 2 milionów tokenów, będąc idealnym modelem multimodalnym średniej wielkości do złożonych zadań.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Eksperymentalny model Gemini 2.0 Flash z obsługą generowania obrazów.",
511
+ "gemini-2.0-flash-exp.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
512
+ "gemini-2.0-flash-lite-001.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
513
+ "gemini-2.0-flash-lite.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google z pełnymi możliwościami.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash to najbardziej opłacalny model Google z pełnymi możliwościami.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
504
529
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
505
530
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
506
531
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Tworzenie treści",
13
13
  "interests.hint": "Możesz to zmienić w każdej chwili w ustawieniach",
14
14
  "interests.placeholder": "Wpisz swoje zainteresowania...",
15
+ "interests.title": "Jakie obszary Cię interesują?",
16
+ "interests.title2": "To pomoże mi lepiej Cię poznać",
17
+ "interests.title3": "Nie spiesz się, chcę Cię lepiej poznać",
15
18
  "modeSelection.desc": "Wybierz tryb pracy, który najbardziej Ci odpowiada",
16
19
  "modeSelection.hint": "Możesz to zmienić w każdej chwili w ustawieniach",
17
20
  "modeSelection.lite.desc": "Idealny do codziennych rozmów, pytań i odpowiedzi, lekkiej pracy i testowania modeli",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Agente da Comunidade",
135
135
  "cmdk.search.file": "Arquivo",
136
136
  "cmdk.search.files": "Arquivos",
137
+ "cmdk.search.folder": "Pasta",
138
+ "cmdk.search.folders": "Pastas",
137
139
  "cmdk.search.loading": "Pesquisando...",
138
140
  "cmdk.search.market": "Comunidade",
139
141
  "cmdk.search.mcp": "Servidor MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Mais",
57
57
  "assistants.plugins": "Habilidades Integradas",
58
58
  "assistants.recentSubmits": "Atualizações Recentes",
59
- "assistants.sorts.recommended": "Recomendado",
60
59
  "assistants.sorts.createdAt": "Recentemente Publicado",
61
60
  "assistants.sorts.identifier": "ID do Agente",
62
61
  "assistants.sorts.knowledgeCount": "Bibliotecas",
63
62
  "assistants.sorts.myown": "Ver Meus Agentes",
64
63
  "assistants.sorts.pluginCount": "Habilidades",
64
+ "assistants.sorts.recommended": "Recomendado",
65
65
  "assistants.sorts.title": "Nome do Agente",
66
66
  "assistants.sorts.tokenUsage": "Uso de Tokens",
67
67
  "assistants.status.archived.reasons.official": "A plataforma removeu este Agente por motivos de segurança, política ou outras preocupações.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Este Agente inclui Bibliotecas",
84
84
  "assistants.withPlugin": "Este Agente inclui Habilidades",
85
85
  "back": "Voltar para Descoberta",
86
- "category.assistant.discover": "Descoberta",
87
86
  "category.assistant.academic": "Acadêmico",
88
87
  "category.assistant.all": "Todos",
89
88
  "category.assistant.career": "Carreira",
90
89
  "category.assistant.copywriting": "Redação",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Descoberta",
92
92
  "category.assistant.education": "Educação",
93
93
  "category.assistant.emotions": "Emoções",
94
94
  "category.assistant.entertainment": "Entretenimento",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio disponível no mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela equipe Seed da ByteDance, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem e gera imagens de alta qualidade com controle preciso. Gera imagens a partir de comandos de texto.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
- "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagem da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
483
- "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e realiza edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
+ "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
484
484
  "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
486
  "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@@ -554,6 +554,44 @@
554
554
  "glm-4-plus.description": "GLM-4-Plus é um modelo carro-chefe de alta inteligência com forte capacidade para textos longos e tarefas complexas, além de desempenho geral aprimorado.",
555
555
  "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
556
556
  "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
557
+ "glm-4.5-air.description": "Edição leve do GLM-4.5 que equilibra desempenho e custo, com modos de raciocínio híbrido flexíveis.",
558
+ "glm-4.5-airx.description": "Edição rápida do GLM-4.5-Air com respostas mais ágeis para uso em larga escala e alta velocidade.",
559
+ "glm-4.5-flash.description": "Versão gratuita do GLM-4.5 com ótimo desempenho em raciocínio, programação e tarefas de agentes.",
560
+ "glm-4.5-x.description": "Edição rápida do GLM-4.5, com desempenho robusto e velocidade de geração de até 100 tokens/segundo.",
561
+ "glm-4.5.description": "Modelo principal da Zhipu com modo de raciocínio alternável, oferecendo SOTA de código aberto e suporte a contexto de até 128K tokens.",
562
+ "glm-4.5v.description": "Modelo de raciocínio visual de próxima geração da Zhipu com arquitetura MoE, totalizando 106B parâmetros (12B ativos), atingindo SOTA entre modelos multimodais de código aberto de tamanho semelhante em tarefas de imagem, vídeo, documentos e interfaces gráficas.",
563
+ "glm-4.6.description": "GLM-4.6 (355B), o mais novo modelo principal da Zhipu, supera amplamente a geração anterior em codificação avançada, processamento de textos longos, raciocínio e capacidades de agentes. Em especial, sua habilidade de programação está alinhada ao Claude Sonnet 4, tornando-o o modelo de codificação mais avançado da China.",
564
+ "glm-4.7.description": "GLM-4.7 é o mais novo modelo principal da Zhipu, com codificação reforçada para cenários de programação com agentes, planejamento de tarefas de longo prazo e colaboração com ferramentas. Apresenta desempenho de ponta entre modelos de código aberto em diversos benchmarks públicos. Suas respostas são mais naturais e concisas, com escrita mais envolvente. Em tarefas complexas de agentes, segue instruções com mais precisão, e melhora a estética e eficiência na execução de tarefas longas com Artifacts e Agentic Coding.",
565
+ "glm-4.description": "GLM-4 é o modelo principal anterior lançado em janeiro de 2024, agora substituído pelo mais forte GLM-4-0520.",
566
+ "glm-4v-flash.description": "GLM-4V-Flash é focado em compreensão eficiente de imagens únicas para cenários de análise rápida, como processamento de imagens em tempo real ou em lote.",
567
+ "glm-4v-plus-0111.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
568
+ "glm-4v-plus.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
569
+ "glm-4v.description": "GLM-4V oferece forte compreensão e raciocínio visual em diversas tarefas visuais.",
570
+ "glm-z1-air.description": "Modelo de raciocínio com forte capacidade de inferência para tarefas que exigem dedução profunda.",
571
+ "glm-z1-airx.description": "Raciocínio ultrarrápido com alta qualidade de inferência.",
572
+ "glm-z1-flash.description": "A série GLM-Z1 oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
573
+ "glm-z1-flashx.description": "Rápido e de baixo custo: versão Flash com raciocínio ultrarrápido e maior concorrência.",
574
+ "glm-zero-preview.description": "GLM-Zero-Preview oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
575
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional e desempenho escalável para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
576
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece capacidades de nova geração, incluindo excelente velocidade, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
577
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental é o mais recente modelo multimodal experimental do Google, com melhorias de qualidade em relação às versões anteriores, especialmente em conhecimento geral, código e contexto longo.",
578
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite é uma variante leve do Gemini com raciocínio desativado por padrão para melhorar latência e custo, podendo ser ativado via parâmetros.",
579
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite oferece recursos de nova geração, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
580
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash é o modelo de raciocínio de alto desempenho do Google para tarefas multimodais estendidas.",
581
+ "google/gemini-2.5-flash-image-free.description": "Camada gratuita do Gemini 2.5 Flash Image com geração multimodal limitada por cota.",
582
+ "google/gemini-2.5-flash-image-preview.description": "Modelo experimental Gemini 2.5 Flash com suporte à geração de imagens.",
583
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) é o modelo de geração de imagens do Google com suporte a conversas multimodais.",
584
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite é a variante leve do Gemini 2.5, otimizada para latência e custo, ideal para cenários de alto volume.",
585
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, programação, matemática e ciências. Inclui raciocínio embutido para respostas mais precisas e processamento de contexto refinado.\n\nNota: Este modelo possui duas variantes — com e sem raciocínio. O preço de saída varia significativamente dependendo da ativação do raciocínio.\n\nPara usar o raciocínio e receber tokens de raciocínio, selecione a variante “:thinking”, que possui custo adicional.\n\nO Gemini 2.5 Flash também pode ser configurado via o parâmetro “max reasoning tokens” conforme documentado (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, programação, matemática e ciências. Inclui raciocínio embutido para respostas mais precisas e processamento de contexto refinado.\n\nNota: Este modelo possui duas variantes — com e sem raciocínio. O preço de saída varia significativamente dependendo da ativação do raciocínio.\n\nPara usar o raciocínio e receber tokens de raciocínio, selecione a variante “:thinking”, que possui custo adicional.\n\nO Gemini 2.5 Flash também pode ser configurado via o parâmetro “max reasoning tokens” conforme documentado (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) é a família de modelos do Google que abrange desde baixa latência até raciocínio de alto desempenho.",
588
+ "google/gemini-2.5-pro-free.description": "Camada gratuita do Gemini 2.5 Pro com geração multimodal de contexto longo limitada por cota, ideal para testes e fluxos leves.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google para resolver problemas complexos em código, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo principal de raciocínio do Google com suporte a contexto longo para tarefas complexas.",
591
+ "google/gemini-3-pro-image-preview-free.description": "Camada gratuita do Gemini 3 Pro Image com geração multimodal limitada por cota.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google com suporte a conversas multimodais.",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free oferece a mesma compreensão e raciocínio multimodal da versão padrão, mas com limites de cota e taxa, ideal para testes e uso de baixa frequência.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro é o modelo de raciocínio multimodal de próxima geração da família Gemini, com compreensão de texto, áudio, imagens e vídeo, capaz de lidar com tarefas complexas e grandes bases de código.",
557
595
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
558
596
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
559
597
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Criação de Conteúdo",
13
13
  "interests.hint": "Você pode mudar isso a qualquer momento nas configurações",
14
14
  "interests.placeholder": "Digite seus interesses...",
15
+ "interests.title": "Quais são as suas áreas de interesse?",
16
+ "interests.title2": "Isso vai me ajudar a te conhecer melhor",
17
+ "interests.title3": "Sem pressa, vou te conhecer melhor aos poucos",
15
18
  "modeSelection.desc": "Escolha o modo que combina mais com você",
16
19
  "modeSelection.hint": "Você pode mudar isso a qualquer momento nas configurações",
17
20
  "modeSelection.lite.desc": "Ideal para conversas do dia a dia, perguntas e respostas, produtividade leve e testes de modelos",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Агент сообщества",
135
135
  "cmdk.search.file": "Файл",
136
136
  "cmdk.search.files": "Файлы",
137
+ "cmdk.search.folder": "Папка",
138
+ "cmdk.search.folders": "Папки",
137
139
  "cmdk.search.loading": "Поиск...",
138
140
  "cmdk.search.market": "Сообщество",
139
141
  "cmdk.search.mcp": "Сервер MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Ещё",
57
57
  "assistants.plugins": "Интегрированные навыки",
58
58
  "assistants.recentSubmits": "Недавние обновления",
59
- "assistants.sorts.recommended": "Рекомендованные",
60
59
  "assistants.sorts.createdAt": "Недавно опубликованные",
61
60
  "assistants.sorts.identifier": "ID агента",
62
61
  "assistants.sorts.knowledgeCount": "Библиотеки",
63
62
  "assistants.sorts.myown": "Мои агенты",
64
63
  "assistants.sorts.pluginCount": "Навыки",
64
+ "assistants.sorts.recommended": "Рекомендованные",
65
65
  "assistants.sorts.title": "Название агента",
66
66
  "assistants.sorts.tokenUsage": "Использование токенов",
67
67
  "assistants.status.archived.reasons.official": "Платформа удалила этого агента по соображениям безопасности, политики или другим причинам.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Этот агент использует библиотеки",
84
84
  "assistants.withPlugin": "Этот агент использует навыки",
85
85
  "back": "Назад к поиску",
86
- "category.assistant.discover": "Обзор",
87
86
  "category.assistant.academic": "Академия",
88
87
  "category.assistant.all": "Все",
89
88
  "category.assistant.career": "Карьера",
90
89
  "category.assistant.copywriting": "Копирайтинг",
91
90
  "category.assistant.design": "Дизайн",
91
+ "category.assistant.discover": "Обзор",
92
92
  "category.assistant.education": "Образование",
93
93
  "category.assistant.emotions": "Эмоции",
94
94
  "category.assistant.entertainment": "Развлечения",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
272
272
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
273
273
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим бенчмаркам.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая мгновенные ответы или углублённое мышление с тонкой настройкой.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она может мгновенно выдавать ответы или пошагово рассуждать, показывая ход мыслей пользователю. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах для агентов.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и способность к длительному размышлению.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для сверхсложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 самая интеллектуальная модель Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое размышление с тонкой настройкой для пользователей API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать мгновенные ответы или пошаговые рассуждения с видимым процессом мышления.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
289
289
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
358
- "deepseek-chat.description": "DeepSeek V3.2 сочетает в себе логическое мышление и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
358
+ "deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности и сильные навыки кодирования, улучшая соответствие предпочтениям. DeepSeek-V2.5 также улучшает письмо и выполнение инструкций.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
379
379
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности, демонстрируя лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
382
382
  "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 от ByteDance Seed поддерживает ввод текста и изображений для высококачественной и управляемой генерации изображений по подсказкам.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высокой управляемостью и качеством. Генерирует изображения по текстовым подсказкам.",
475
475
  "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
480
480
  "fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
482
- "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском/английском, перенос стиля, поворот и многое другое.",
483
- "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с отличной отрисовкой китайского текста и разнообразными визуальными стилями.",
482
+ "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование китайского и английского текста, а также высококачественные трансформации, такие как перенос стиля и поворот объектов.",
483
+ "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим отображением китайского текста и разнообразными визуальными стилями.",
484
484
  "flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
485
485
  "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
486
486
  "flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
@@ -512,6 +512,48 @@
512
512
  "gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
513
513
  "gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Предварительный выпуск (25 сентября 2025 г.) модели Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview — самая выгодная модель от Google с полным набором возможностей.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Предварительный выпуск (25 сентября 2025 г.) модели Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash — самая выгодная модель от Google с полным набором возможностей.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель рассуждения от Google с поддержкой длинного контекста для сложных задач.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash — самая интеллектуальная модель, созданная для скорости, объединяющая передовые технологии и выдающиеся возможности поиска.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального диалога.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального диалога.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.",
533
+ "gemini-flash-latest.description": "Последний выпуск Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Последний выпуск Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Последний выпуск Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B — экономичное решение для задач малого и среднего масштаба.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B оптимизирована для выполнения конкретных задач и интеграции с инструментами.",
538
+ "gemma2.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
539
+ "gemma2:27b.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
540
+ "gemma2:2b.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
541
+ "generalv3.5.description": "Spark Max — самая функциональная версия, поддерживающая веб-поиск и множество встроенных плагинов. Оптимизированные базовые возможности, системные роли и вызов функций обеспечивают отличную производительность в сложных сценариях.",
542
+ "generalv3.description": "Spark Pro — высокопроизводительная языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, здравоохранение и образование. Поддерживает веб-поиск и встроенные плагины (погода, дата и др.). Обеспечивает высокую эффективность в сложных задачах, понимании языка и создании текста, идеально подходит для профессионального использования.",
543
+ "glm-4-0520.description": "GLM-4-0520 — последняя версия модели, разработанная для сложных и разнообразных задач с отличной производительностью.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 — универсальная модель GLM, поддерживающая многозадачную генерацию и понимание текста.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat демонстрирует высокие результаты в семантике, математике, логике, программировании и знаниях. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и рассуждение над длинными текстами. Поддерживает 26 языков, включая японский, корейский и немецкий.",
546
+ "glm-4-air-250414.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
547
+ "glm-4-air.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
548
+ "glm-4-airx.description": "GLM-4-AirX — более эффективный вариант GLM-4-Air с ускорением рассуждений до 2.6 раз.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools — универсальная агентная модель, оптимизированная для сложного планирования инструкций и использования инструментов, таких как веб-браузинг, объяснение кода и генерация текста. Подходит для многозадачного выполнения.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash идеально подходит для простых задач: самая быстрая и бесплатная.",
551
+ "glm-4-flash.description": "GLM-4-Flash идеально подходит для простых задач: самая быстрая и бесплатная.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX — улучшенная версия Flash с ультрабыстрым рассуждением.",
553
+ "glm-4-long.description": "GLM-4-Long поддерживает сверхдлинные входные данные для задач, связанных с памятью, и обработки больших документов.",
554
+ "glm-4-plus.description": "GLM-4-Plus — флагманская модель с высоким уровнем интеллекта, сильной поддержкой длинных текстов и сложных задач, а также улучшенной общей производительностью.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
515
557
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
516
558
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
517
559
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Создание контента",
13
13
  "interests.hint": "Вы можете изменить это в любое время в настройках",
14
14
  "interests.placeholder": "Введите ваши интересы...",
15
+ "interests.title": "Какие области вас интересуют?",
16
+ "interests.title2": "Это поможет мне лучше вас узнать",
17
+ "interests.title3": "Не спешите, я постепенно узнаю вас лучше",
15
18
  "modeSelection.desc": "Выберите режим, который вам больше подходит",
16
19
  "modeSelection.hint": "Вы можете изменить это в любое время в настройках",
17
20
  "modeSelection.lite.desc": "Идеально для повседневного общения, вопросов и ответов, лёгкой продуктивности и тестирования моделей",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
- "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
33
32
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
34
33
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
35
34
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",