@lobehub/lobehub 2.0.0-next.158 → 2.0.0-next.159

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (64) hide show
  1. package/.nvmrc +1 -1
  2. package/CHANGELOG.md +25 -0
  3. package/changelog/v1.json +9 -0
  4. package/docs/development/database-schema.dbml +6 -0
  5. package/locales/ar/auth.json +11 -2
  6. package/locales/ar/models.json +25 -13
  7. package/locales/bg-BG/auth.json +11 -2
  8. package/locales/bg-BG/models.json +25 -13
  9. package/locales/de-DE/auth.json +11 -2
  10. package/locales/de-DE/models.json +25 -13
  11. package/locales/en-US/auth.json +18 -9
  12. package/locales/en-US/models.json +25 -13
  13. package/locales/es-ES/auth.json +11 -2
  14. package/locales/es-ES/models.json +25 -13
  15. package/locales/fa-IR/auth.json +11 -2
  16. package/locales/fa-IR/models.json +25 -13
  17. package/locales/fr-FR/auth.json +11 -2
  18. package/locales/fr-FR/models.json +25 -13
  19. package/locales/it-IT/auth.json +11 -2
  20. package/locales/it-IT/models.json +25 -13
  21. package/locales/ja-JP/auth.json +11 -2
  22. package/locales/ja-JP/models.json +25 -13
  23. package/locales/ko-KR/auth.json +11 -2
  24. package/locales/ko-KR/models.json +25 -13
  25. package/locales/nl-NL/auth.json +11 -2
  26. package/locales/nl-NL/models.json +25 -13
  27. package/locales/pl-PL/auth.json +11 -2
  28. package/locales/pl-PL/models.json +25 -13
  29. package/locales/pt-BR/auth.json +11 -2
  30. package/locales/pt-BR/models.json +25 -13
  31. package/locales/ru-RU/auth.json +11 -2
  32. package/locales/ru-RU/models.json +25 -13
  33. package/locales/tr-TR/auth.json +11 -2
  34. package/locales/tr-TR/models.json +25 -13
  35. package/locales/vi-VN/auth.json +11 -2
  36. package/locales/vi-VN/models.json +25 -13
  37. package/locales/zh-CN/auth.json +18 -9
  38. package/locales/zh-CN/models.json +25 -13
  39. package/locales/zh-TW/auth.json +11 -2
  40. package/locales/zh-TW/models.json +25 -13
  41. package/next.config.ts +1 -1
  42. package/package.json +2 -1
  43. package/packages/database/migrations/0059_add_normalized_email_indexes.sql +4 -0
  44. package/packages/database/migrations/meta/0059_snapshot.json +8474 -0
  45. package/packages/database/migrations/meta/_journal.json +7 -0
  46. package/packages/database/src/core/migrations.json +12 -0
  47. package/packages/database/src/models/user.ts +13 -1
  48. package/packages/database/src/schemas/user.ts +37 -29
  49. package/src/app/(backend)/api/auth/resolve-username/route.ts +52 -0
  50. package/src/app/[variants]/(auth)/signin/page.tsx +102 -14
  51. package/src/app/[variants]/(auth)/signup/[[...signup]]/BetterAuthSignUpForm.tsx +15 -0
  52. package/src/app/[variants]/(main)/profile/(home)/Client.tsx +152 -12
  53. package/src/app/[variants]/(main)/profile/(home)/features/SSOProvidersList/index.tsx +4 -9
  54. package/src/app/[variants]/desktopRouter.config.tsx +7 -1
  55. package/src/app/[variants]/mobileRouter.config.tsx +7 -1
  56. package/src/auth.ts +2 -0
  57. package/src/locales/default/auth.ts +17 -9
  58. package/src/server/routers/lambda/user.ts +18 -0
  59. package/src/services/user/index.ts +4 -0
  60. package/src/store/user/slices/auth/action.test.ts +2 -2
  61. package/src/store/user/slices/auth/action.ts +8 -8
  62. package/src/store/user/slices/auth/initialState.ts +1 -1
  63. package/src/store/user/slices/auth/selectors.ts +1 -1
  64. package/src/store/user/slices/common/action.ts +6 -0
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy opartych na agentach."
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy agentów, oferuje wysoką równoległość i jest gotowy do zastosowań komercyjnych."
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo to wersja Turbo z serii Kimi K2, zoptymalizowana pod kątem szybkości wnioskowania i przepustowości, przy jednoczesnym zachowaniu zdolności do wieloetapowego rozumowania i korzystania z narzędzi. Model oparty jest na architekturze ekspertów mieszanych (MoE), posiada około 1 bilion parametrów, natywnie obsługuje kontekst o długości 256K i stabilnie wykonuje złożone wywołania narzędzi, idealny do zastosowań produkcyjnych wymagających niskich opóźnień i wysokiej równoległości."
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "QwQ-32B-Preview to innowacyjny model przetwarzania języka naturalnego, który efektywnie radzi sobie z złożonymi zadaniami generowania dialogów i rozumienia kontekstu."
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo."
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR to model językowo-wizualny opracowany przez DeepSeek AI, skoncentrowany na optycznym rozpoznawaniu znaków (OCR) i „optycznej kompresji kontekstu”. Model ten bada granice kompresji informacji kontekstowej z obrazów, efektywnie przetwarzając dokumenty i przekształcając je w ustrukturyzowane formaty tekstowe, takie jak Markdown. Doskonale rozpoznaje tekst na obrazach, co czyni go idealnym do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego."
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1 to model wnioskowania napędzany uczeniem przez wzmacnianie (RL), który rozwiązuje problemy z powtarzalnością i czytelnością modelu. Przed RL, DeepSeek-R1 wprowadził dane z zimnego startu, co dodatkowo zoptymalizowało wydajność wnioskowania. W zadaniach matematycznych, kodowania i wnioskowania osiąga wyniki porównywalne z OpenAI-o1, a dzięki starannie zaprojektowanym metodom treningowym poprawia ogólne efekty."
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision to wizualny model głębokiego myślenia, który wykazuje silniejsze zdolności ogólnego rozumienia multimodalnego i wnioskowania w scenariuszach edukacyjnych, przeglądu obrazów, inspekcji i bezpieczeństwa oraz AI w wyszukiwaniu i odpowiadaniu na pytania. Obsługuje okno kontekstowe do 256k oraz maksymalną długość wyjścia do 64k tokenów."
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code został głęboko zoptymalizowany pod kątem zadań programowania agentowego, obsługuje multimodalność (tekst/obraz/wideo) oraz długi kontekst 256K, jest kompatybilny z API Anthropic i nadaje się do zastosowań w programowaniu, rozumieniu wizualnym i scenariuszach z udziałem agentów."
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "Model generowania obrazów Doubao opracowany przez zespół Seed ByteDance, obsługuje wejścia tekstowe i obrazowe, oferując wysoką kontrolę i jakość generowanych obrazów. Umożliwia edycję obrazów za pomocą poleceń tekstowych, generując obrazy o rozmiarach od 512 do 1536 pikseli."
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B, otwartoźródłowy model multimodalny, wspierający zadania rozumienia i wnioskowania obrazów i tekstu."
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "Wenxin 5.0 Thinking to flagowy model natywnie obsługujący wszystkie modalności, umożliwiający zintegrowane modelowanie tekstu, obrazu, dźwięku i wideo. Oferuje kompleksowe ulepszenia zdolności i nadaje się do złożonych pytań, twórczości oraz zastosowań z inteligentnymi agentami."
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "ERNIE 5.0 Thinking Preview, flagowy model natywnie multimodalny, wspierający tekst, obraz, dźwięk i wideo, kompleksowo ulepszony do złożonych pytań, twórczości i agentów."
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "Produkt Kimi Smart Assistant korzysta z najnowszego modelu Kimi, który może zawierać cechy jeszcze niestabilne. Obsługuje zrozumienie obrazów i automatycznie wybiera model 8k/32k/128k jako model rozliczeniowy w zależności od długości kontekstu żądania."
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "Model kimi-thinking-preview dostarczany przez Moon’s Dark Side to multimodalny model myślenia z umiejętnościami ogólnego i głębokiego rozumowania, który pomaga rozwiązywać bardziej złożone i trudniejsze problemy."
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1 (czasowo darmowy) koncentruje się na rozumieniu kodu i automatycznym programowaniu, przeznaczony do wydajnych zadań programistycznych."
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "Model Llama 3.3 zoptymalizowany do rozmów, który w standardowych testach branżowych przewyższa wiele istniejących modeli czatowych o otwartym kodzie."
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout: wysokowydajny model z serii Llama, zaprojektowany do zastosowań wymagających dużej przepustowości i niskich opóźnień."
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking to najnowszy i najpotężniejszy otwartoźródłowy model rozumowania. Znacząco rozszerza głębokość wieloetapowego wnioskowania i utrzymuje stabilne korzystanie z narzędzi w 200–300 kolejnych wywołaniach. Ustanowił nowe standardy w testach takich jak Humanity's Last Exam (HLE), BrowseComp i innych. Wyróżnia się w programowaniu, matematyce, logicznym rozumowaniu i scenariuszach agentowych. Model oparty jest na architekturze ekspertów mieszanych (MoE), posiada około 1 bilion parametrów, obsługuje kontekst 256K i wywołania narzędzi."
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2 to duży model językowy hybrydowych ekspertów (MoE) opracowany przez Moonshot AI, z 1 bilionem parametrów łącznie i 32 miliardami aktywnych parametrów na pojedyncze przejście. Model jest zoptymalizowany pod kątem zdolności agentowych, w tym zaawansowanego użycia narzędzi, wnioskowania i syntezy kodu."
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami."
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
2736
+ "description": "Mniejszy i szybszy niż o1-preview, o 80% niższy koszt, dobrze sprawdza się w generowaniu kodu i operacjach na krótkim kontekście."
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "Skoncentrowany na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do zastosowań wymagających głębokiego zrozumienia kontekstu i autonomicznych przepływów pracy."
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B: model z serii Qwen, który doskonale sprawdza się w zadaniach wielojęzycznych i programistycznych, odpowiedni do średnioskalowej produkcji."
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B: model z długim kontekstem, zaprojektowany do generowania kodu i realizacji złożonych zadań programistycznych."
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "Model kodowania Tongyi Qianwen."
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "Nowy produkt API wspierany przez model wnioskowania DeepSeek."
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "Opis możliwości X1.5: (1) Nowy tryb dynamicznego dostosowywania sposobu myślenia, sterowany przez pole thinking; (2) Zwiększona długość kontekstu: wejście i wyjście po 64K; (3) Obsługa funkcji FunctionCall."
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "Najnowszy duży model generowania obrazów na podstawie tekstu wydany przez Stability AI. Ta wersja zachowuje zalety poprzednich generacji, jednocześnie znacząco poprawiając jakość obrazu, rozumienie tekstu i różnorodność stylów. Potrafi dokładniej interpretować złożone naturalne polecenia i generować bardziej precyzyjne oraz zróżnicowane obrazy."
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1 to szybki model kodujący firmy xAI, generujący czytelny i inżynieryjnie dopasowany kod."
3526
3538
  },
3527
- "x1": {
3528
- "description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2 to nowoczesny model językowy o zaawansowanych zdolnościach wnioskowania. Wyróżnia się w czacie, kodowaniu i wnioskowaniu, przewyższając Claude 3.5 Sonnet i GPT-4-Turbo na liście LMSYS."
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6 to flagowy model firmy Z.AI, oferujący rozszerzoną długość kontekstu i ulepszone możliwości kodowania."
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "Wyróżnia się w zadaniach programistycznych i wnioskowania, obsługuje strumieniowanie i wywołania narzędzi, idealny do agentowego kodowania i złożonych scenariuszy rozumowania."
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5 to podstawowy model zaprojektowany specjalnie do zastosowań agentowych, wykorzystujący architekturę mieszanych ekspertów (Mixture-of-Experts). Model jest głęboko zoptymalizowany pod kątem wywoływania narzędzi, przeglądania stron internetowych, inżynierii oprogramowania i programowania frontendowego, wspierając bezproblemową integrację z inteligentnymi agentami kodu takimi jak Claude Code i Roo Code. GLM-4.5 stosuje hybrydowy tryb wnioskowania, dostosowując się do złożonych i codziennych scenariuszy użycia."
3598
3610
  },
@@ -54,6 +54,7 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
+ "emailExists": "Este e-mail já está registrado. Por favor, faça login diretamente.",
57
58
  "emailInvalid": "Por favor, insira um endereço de e-mail válido",
58
59
  "emailNotRegistered": "Este e-mail ainda não está registrado",
59
60
  "emailNotVerified": "E-mail não verificado, por favor verifique seu e-mail primeiro",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "A senha não pode ter mais de 64 caracteres",
66
67
  "passwordMinLength": "A senha deve ter pelo menos 8 caracteres",
67
68
  "passwordRequired": "Por favor, insira a senha",
69
+ "usernameNotRegistered": "Este nome de usuário ainda não está registrado",
68
70
  "usernameRequired": "Por favor, insira o nome de usuário"
69
71
  },
70
72
  "resetPassword": {
@@ -101,7 +103,6 @@
101
103
  "continueWithZitadel": "Entrar com Zitadel",
102
104
  "emailPlaceholder": "Por favor, insira o endereço de e-mail",
103
105
  "emailStep": {
104
- "subtitle": "Insira seu endereço de e-mail para continuar",
105
106
  "title": "Entrar"
106
107
  },
107
108
  "error": "Falha no login, verifique o e-mail e a senha",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "Falha ao enviar o link de redefinição de senha",
195
196
  "resetPasswordSent": "Link de redefinição de senha enviado, verifique seu e-mail",
196
197
  "save": "Salvar",
198
+ "setPassword": "Definir senha",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "Conectar conta",
@@ -210,7 +212,14 @@
210
212
  "title": "Detalhes do perfil",
211
213
  "updateAvatar": "Atualizar avatar",
212
214
  "updateFullName": "Atualizar nome completo",
213
- "username": "Nome de Usuário"
215
+ "updateUsername": "Atualizar nome de usuário",
216
+ "username": "Nome de Usuário",
217
+ "usernameDuplicate": "Nome de usuário já está em uso",
218
+ "usernameInputHint": "Por favor, insira um novo nome de usuário",
219
+ "usernamePlaceholder": "Digite um nome de usuário composto por letras, números ou sublinhado",
220
+ "usernameRequired": "O nome de usuário não pode estar vazio",
221
+ "usernameRule": "O nome de usuário só pode conter letras, números ou sublinhado",
222
+ "usernameUpdateFailed": "Falha ao atualizar o nome de usuário, tente novamente mais tarde"
214
223
  },
215
224
  "signout": "Sair",
216
225
  "signup": "Cadastrar",
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "Projetado especialmente para codificação eficiente e fluxos de trabalho com agentes."
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "Projetado para codificação eficiente e fluxos de trabalho com agentes, com alta concorrência e uso comercial."
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo é a versão Turbo da série Kimi K2, otimizada para velocidade de raciocínio e throughput, mantendo a capacidade de raciocínio em múltiplas etapas e uso de ferramentas do K2 Thinking. Baseado em uma arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta nativamente contexto de 256K e executa chamadas de ferramentas em larga escala de forma estável, ideal para cenários de produção com alta exigência de latência e concorrência."
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "O QwQ-32B-Preview é um modelo de processamento de linguagem natural inovador, capaz de lidar eficientemente com tarefas complexas de geração de diálogos e compreensão de contexto."
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR é um modelo de linguagem visual desenvolvido pela DeepSeek AI, focado em reconhecimento óptico de caracteres (OCR) e 'compressão óptica contextual'. O modelo explora os limites da compressão de informações contextuais a partir de imagens, processando documentos de forma eficiente e convertendo-os em formatos estruturados como Markdown. É altamente preciso na identificação de texto em imagens, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado."
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision é um modelo de pensamento profundo visual que demonstra capacidades multimodais gerais mais fortes em cenários como educação, revisão de imagens, inspeção e segurança, e busca e resposta por IA. Suporta janela de contexto de 256k e comprimento máximo de saída de até 64k tokens."
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code é profundamente otimizado para tarefas de programação com agentes, com suporte multimodal (texto/imagem/vídeo) e contexto longo de 256K, compatível com a API da Anthropic, ideal para programação, compreensão visual e cenários com agentes."
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "O modelo de geração de imagens Doubao foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Suporta edição de imagens por comandos de texto, gerando imagens com lados entre 512 e 1536 pixels."
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código aberto com suporte para tarefas de compreensão e raciocínio de imagem e texto."
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "Wenxin 5.0 Thinking é um modelo principal multimodal nativo, com suporte unificado para texto, imagem, áudio e vídeo. Com capacidades amplamente aprimoradas, é adequado para perguntas complexas, criação de conteúdo e cenários com agentes inteligentes."
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "Wenxin 5.0 Thinking Preview, modelo nativo multimodal de última geração com suporte unificado para texto, imagem, áudio e vídeo, com capacidades amplamente aprimoradas, ideal para perguntas complexas, criação e agentes inteligentes."
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "O produto assistente inteligente Kimi utiliza o mais recente modelo Kimi, que pode conter recursos ainda não estáveis. Suporta compreensão de imagens e seleciona automaticamente o modelo de cobrança de 8k/32k/128k com base no comprimento do contexto da solicitação."
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "O modelo kimi-thinking-preview, fornecido pela Face Oculta da Lua, é um modelo multimodal de pensamento com capacidades de raciocínio multimodal e geral, especializado em raciocínio profundo para ajudar a resolver problemas mais complexos."
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1 (gratuito por tempo limitado) é focado em compreensão de código e programação automatizada, ideal para tarefas de agente de codificação eficiente."
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "O modelo Llama 3.3 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat open-source existentes em benchmarks comuns do setor."
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout: modelo de alto desempenho da série Llama, adequado para cenários que exigem alta taxa de processamento e baixa latência."
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking é o mais recente e poderoso modelo de raciocínio de código aberto. Ele amplia significativamente a profundidade do raciocínio em múltiplas etapas e mantém o uso estável de ferramentas em 200–300 chamadas consecutivas. Estabeleceu novos padrões em benchmarks como Humanity's Last Exam (HLE), BrowseComp e outros. Também se destaca em programação, matemática, raciocínio lógico e cenários com agentes. Baseado em arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta janelas de contexto de 256K e chamadas de ferramentas."
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2 é um modelo de linguagem de especialistas mistos (MoE) em grande escala desenvolvido pela Moonshot AI, com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos por passagem. Otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
2736
+ "description": "Menor e mais rápido que o o1-preview, com 80% de redução de custo, apresenta bom desempenho em geração de código e operações com contexto reduzido."
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "Focado em raciocínio avançado e na resolução de problemas complexos, incluindo tarefas de matemática e ciências. Muito adequado para aplicações que exigem compreensão profunda do contexto e fluxos de trabalho autônomos."
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B: modelo da série Qwen com excelente desempenho em tarefas multilíngues e de codificação, adequado para aplicações de produção em escala média."
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B: modelo com contexto longo voltado para geração de código e tarefas complexas de programação."
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "Modelo de código Tongyi Qianwen."
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "Um novo produto de API suportado pelo modelo de raciocínio DeepSeek."
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "Apresentação das capacidades do X1.5: (1) Novo ajuste dinâmico do modo de raciocínio, controlado pelo campo 'thinking'; (2) Comprimento de contexto aumentado: 64K para entrada e saída; (3) Suporte à funcionalidade FunctionCall."
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "Modelo de geração de imagens a partir de texto mais recente lançado pela Stability AI. Esta versão mantém as vantagens das anteriores e apresenta melhorias significativas na qualidade da imagem, compreensão textual e diversidade de estilos, capaz de interpretar prompts complexos de linguagem natural com maior precisão e gerar imagens mais precisas e variadas."
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1 é o modelo de código rápido da xAI, com saída legível e adaptada à engenharia."
3526
3538
  },
3527
- "x1": {
3528
- "description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2 é um modelo de linguagem de ponta com capacidades avançadas de raciocínio. Possui habilidades avançadas em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4-Turbo no ranking LMSYS."
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6 é o modelo carro-chefe da Z.AI, com contexto expandido e capacidades aprimoradas de codificação."
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "Desempenho excelente em tarefas de programação e raciocínio, com suporte a streaming e chamadas de ferramentas, ideal para codificação com agentes e cenários de raciocínio complexo."
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5 é um modelo base projetado para aplicações de agentes inteligentes, utilizando arquitetura Mixture-of-Experts (MoE). Otimizado para chamadas de ferramentas, navegação web, engenharia de software e programação front-end, suporta integração perfeita com agentes de código como Claude Code e Roo Code. Adota modo de raciocínio híbrido, adaptando-se a cenários de raciocínio complexo e uso cotidiano."
3598
3610
  },
@@ -54,6 +54,7 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
+ "emailExists": "Этот адрес электронной почты уже зарегистрирован. Пожалуйста, войдите в систему.",
57
58
  "emailInvalid": "Пожалуйста, введите действительный адрес электронной почты",
58
59
  "emailNotRegistered": "Этот адрес электронной почты не зарегистрирован",
59
60
  "emailNotVerified": "Электронная почта не подтверждена, пожалуйста, подтвердите её сначала",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "Пароль не должен превышать 64 символа",
66
67
  "passwordMinLength": "Пароль должен содержать не менее 8 символов",
67
68
  "passwordRequired": "Пожалуйста, введите пароль",
69
+ "usernameNotRegistered": "Это имя пользователя не зарегистрировано",
68
70
  "usernameRequired": "Пожалуйста, введите имя пользователя"
69
71
  },
70
72
  "resetPassword": {
@@ -101,7 +103,6 @@
101
103
  "continueWithZitadel": "Войти через Zitadel",
102
104
  "emailPlaceholder": "Введите адрес электронной почты",
103
105
  "emailStep": {
104
- "subtitle": "Введите адрес электронной почты, чтобы продолжить",
105
106
  "title": "Вход"
106
107
  },
107
108
  "error": "Не удалось войти, проверьте адрес электронной почты и пароль",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "Не удалось отправить ссылку для сброса пароля",
195
196
  "resetPasswordSent": "Ссылка для сброса пароля отправлена, проверьте почту",
196
197
  "save": "Сохранить",
198
+ "setPassword": "Установить пароль",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "Привязать аккаунт",
@@ -210,7 +212,14 @@
210
212
  "title": "Детали профиля",
211
213
  "updateAvatar": "Обновить аватар",
212
214
  "updateFullName": "Обновить полное имя",
213
- "username": "Имя пользователя"
215
+ "updateUsername": "Обновить имя пользователя",
216
+ "username": "Имя пользователя",
217
+ "usernameDuplicate": "Имя пользователя уже занято",
218
+ "usernameInputHint": "Пожалуйста, введите новое имя пользователя",
219
+ "usernamePlaceholder": "Введите имя пользователя, состоящее из букв, цифр или символа подчёркивания",
220
+ "usernameRequired": "Имя пользователя не может быть пустым",
221
+ "usernameRule": "Имя пользователя может содержать только буквы, цифры или символ подчёркивания",
222
+ "usernameUpdateFailed": "Не удалось обновить имя пользователя, попробуйте позже"
214
223
  },
215
224
  "signout": "Выйти",
216
225
  "signup": "Зарегистрироваться",
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "Создана специально для эффективного кодирования и рабочих процессов агентов"
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "Создан для эффективного кодирования и рабочих процессов агентов, с высокой параллельностью и коммерческим использованием."
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo — это турбо-версия серии Kimi K2, оптимизированная для скорости вывода и пропускной способности, при этом сохраняющая возможности многошагового рассуждения и вызова инструментов K2 Thinking. Модель построена на архитектуре смешанных экспертов (MoE), имеет около 1 триллиона параметров, нативно поддерживает контекст до 256K и стабильно выполняет масштабные вызовы инструментов. Подходит для производственных сценариев с высокими требованиями к задержке и параллельности."
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR — это визуально-языковая модель от DeepSeek AI, ориентированная на оптическое распознавание символов (OCR) и «контекстное оптическое сжатие». Модель исследует границы сжатия контекстной информации из изображений, эффективно обрабатывает документы и преобразует их в структурированные форматы, такие как Markdown. Она точно распознаёт текст на изображениях и особенно подходит для цифровизации документов, извлечения текста и структурированной обработки."
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision — модель глубокого визуального размышления, демонстрирующая более сильные универсальные мультимодальные способности понимания и рассуждения в таких сценариях, как образование, проверка изображений, инспекции и безопасность, а также AI-поиск и ответы на вопросы. Поддерживает окно контекста до 256k и максимальную длину вывода до 64k токенов."
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code глубоко оптимизирован для задач агентного программирования, поддерживает мультимодальность (текст/изображения/видео) и длинный контекст до 256K, совместим с API Anthropic. Подходит для программирования, визуального понимания и сценариев с агентами."
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "Модель генерации изображений Doubao разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений. Поддерживает редактирование изображений с помощью текстовых команд, размер изображения от 512 до 1536 пикселей."
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B — открытая мультимодальная модель, поддерживающая задачи понимания и вывода по изображениям и тексту."
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "Wenxin 5.0 Thinking — флагманская модель с нативной поддержкой всех модальностей, объединяющая текст, изображения, аудио и видео. Существенно улучшена общая производительность, подходит для сложных вопросов, творчества и сценариев с интеллектуальными агентами."
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "Wenxin 5.0 Thinking Preview — флагманская нативная мультимодальная модель, поддерживающая единое моделирование текста, изображений, аудио и видео. Комплексное обновление возможностей, подходящее для сложных вопросов, творчества и интеллектуальных агентов."
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "Продукт Kimi Smart Assistant использует последнюю модель Kimi, которая может содержать нестабильные функции. Поддерживает понимание изображений и автоматически выбирает модель 8k/32k/128k в качестве модели для выставления счетов в зависимости от длины контекста запроса."
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "Модель kimi-thinking-preview от Moon’s Dark Side — мультимодальная модель мышления с возможностями универсального и глубокого рассуждения, помогает решать более сложные задачи."
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1 (временно бесплатно) специализируется на понимании кода и автоматизированном программировании, предназначен для эффективных задач программных агентов."
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "Модель Llama 3.3 с тонкой настройкой инструкций оптимизирована для диалоговых сценариев и превосходит многие существующие модели с открытым исходным кодом в стандартных отраслевых тестах."
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout: высокопроизводительная модель серии Llama, оптимизированная для сценариев с высокой пропускной способностью и низкой задержкой."
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking — новейшая и самая мощная открытая модель для рассуждений. Она значительно расширяет глубину многошагового вывода и стабильно использует инструменты в 200–300 последовательных вызовах. Установила новые стандарты в Humanity's Last Exam (HLE), BrowseComp и других бенчмарках. Модель демонстрирует выдающиеся результаты в программировании, математике, логическом мышлении и агентных сценариях. Построена на архитектуре смешанных экспертов (MoE), содержит около 1 триллиона параметров, поддерживает контекст до 256K и вызов инструментов."
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2 — крупномасштабная смешанная экспертная (MoE) языковая модель с триллионом параметров и 32 миллиардами активных параметров на проход. Оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждения и синтез кода."
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "Сосредоточена на высокоуровневом выводе и решении сложных задач, включая математические и научные задачи. Идеально подходит для приложений, требующих глубокого понимания контекста и управления рабочими процессами."
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
2736
+ "description": "Меньше и быстрее, чем o1-preview, на 80% дешевле, хорошо справляется с генерацией кода и задачами с малым контекстом."
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "Сосредоточен на продвинутом рассуждении и решении сложных задач, включая задачи по математике и естественным наукам. Отлично подходит для приложений, которым требуется глубокое понимание контекста и автономные рабочие процессы."
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B: модель серии Qwen с отличной производительностью в многоязычных и программных задачах, подходящая для средне-масштабного промышленного применения."
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B: модель с длинным контекстом, ориентированная на генерацию кода и выполнение сложных программных задач."
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "Модель кода Tongyi Qianwen."
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "Возможности X1.5: (1) Новая функция динамической настройки режима мышления через поле thinking; (2) Увеличенная длина контекста: по 64K на ввод и вывод; (3) Поддержка функции FunctionCall."
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "Последняя крупная модель генерации изображений из текста от Stability AI. Эта версия сохраняет преимущества предыдущих поколений и значительно улучшает качество изображений, понимание текста и разнообразие стилей, позволяя точнее интерпретировать сложные естественные языковые подсказки и создавать более точные и разнообразные изображения."
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1 — это быстрая модель генерации кода от xAI, обеспечивающая читаемый и инженерно пригодный вывод."
3526
3538
  },
3527
- "x1": {
3528
- "description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2 — передовая языковая модель с выдающимися возможностями рассуждения. Обладает продвинутыми навыками в чатах, кодировании и рассуждениях, превосходя Claude 3.5 Sonnet и GPT-4-Turbo в рейтинге LMSYS."
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6 — это флагманская модель от Z.AI с расширенной длиной контекста и улучшенными возможностями кодирования."
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "Отлично справляется с задачами программирования и рассуждений, поддерживает потоковую обработку и вызов инструментов, подходит для агентного кодирования и сложных логических сценариев."
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5 — базовая модель, специально созданная для приложений с агентами, использующая архитектуру смешанных экспертов (Mixture-of-Experts). Модель глубоко оптимизирована для вызова инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, поддерживает бесшовную интеграцию с кодовыми агентами, такими как Claude Code и Roo Code. GLM-4.5 использует смешанный режим вывода, адаптируясь к сложным рассуждениям и повседневным задачам."
3598
3610
  },
@@ -54,6 +54,7 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
+ "emailExists": "Bu e-posta adresi zaten kayıtlı, lütfen doğrudan giriş yapın",
57
58
  "emailInvalid": "Lütfen geçerli bir e-posta adresi girin",
58
59
  "emailNotRegistered": "Bu e-posta henüz kayıtlı değil",
59
60
  "emailNotVerified": "E-posta doğrulanmamış, lütfen önce e-postanızı doğrulayın",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "Şifre en fazla 64 karakter olabilir",
66
67
  "passwordMinLength": "Şifre en az 8 karakter olmalıdır",
67
68
  "passwordRequired": "Lütfen şifrenizi girin",
69
+ "usernameNotRegistered": "Bu kullanıcı adı henüz kayıtlı değil",
68
70
  "usernameRequired": "Lütfen kullanıcı adınızı girin"
69
71
  },
70
72
  "resetPassword": {
@@ -101,7 +103,6 @@
101
103
  "continueWithZitadel": "Zitadel ile giriş yap",
102
104
  "emailPlaceholder": "Lütfen e-posta adresinizi girin",
103
105
  "emailStep": {
104
- "subtitle": "Devam etmek için e-posta adresinizi girin",
105
106
  "title": "Giriş Yap"
106
107
  },
107
108
  "error": "Giriş başarısız, lütfen e-posta ve şifrenizi kontrol edin",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "Şifre sıfırlama bağlantısı gönderilemedi",
195
196
  "resetPasswordSent": "Şifre sıfırlama bağlantısı gönderildi, lütfen e-postanızı kontrol edin",
196
197
  "save": "Kaydet",
198
+ "setPassword": "Şifreyi Ayarla",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "Hesabı bağla",
@@ -210,7 +212,14 @@
210
212
  "title": "Profil Bilgileri",
211
213
  "updateAvatar": "Avatarı güncelle",
212
214
  "updateFullName": "Tam adı güncelle",
213
- "username": "Kullanıcı Adı"
215
+ "updateUsername": "Kullanıcı Adını Güncelle",
216
+ "username": "Kullanıcı Adı",
217
+ "usernameDuplicate": "Kullanıcı adı zaten kullanılıyor",
218
+ "usernameInputHint": "Lütfen yeni bir kullanıcı adı girin",
219
+ "usernamePlaceholder": "Lütfen harf, rakam veya alt çizgi içeren bir kullanıcı adı girin",
220
+ "usernameRequired": "Kullanıcı adı boş bırakılamaz",
221
+ "usernameRule": "Kullanıcı adı yalnızca harf, rakam veya alt çizgi içerebilir",
222
+ "usernameUpdateFailed": "Kullanıcı adı güncellenemedi, lütfen daha sonra tekrar deneyin"
214
223
  },
215
224
  "signout": "Çıkış Yap",
216
225
  "signup": "Kayıt Ol",