@lobehub/lobehub 2.0.0-next.157 → 2.0.0-next.159
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.nvmrc +1 -1
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docs/development/database-schema.dbml +7 -0
- package/locales/ar/auth.json +11 -2
- package/locales/ar/models.json +25 -13
- package/locales/bg-BG/auth.json +11 -2
- package/locales/bg-BG/models.json +25 -13
- package/locales/de-DE/auth.json +11 -2
- package/locales/de-DE/models.json +25 -13
- package/locales/en-US/auth.json +18 -9
- package/locales/en-US/models.json +25 -13
- package/locales/es-ES/auth.json +11 -2
- package/locales/es-ES/models.json +25 -13
- package/locales/fa-IR/auth.json +11 -2
- package/locales/fa-IR/models.json +25 -13
- package/locales/fr-FR/auth.json +11 -2
- package/locales/fr-FR/models.json +25 -13
- package/locales/it-IT/auth.json +11 -2
- package/locales/it-IT/models.json +25 -13
- package/locales/ja-JP/auth.json +11 -2
- package/locales/ja-JP/models.json +25 -13
- package/locales/ko-KR/auth.json +11 -2
- package/locales/ko-KR/models.json +25 -13
- package/locales/nl-NL/auth.json +11 -2
- package/locales/nl-NL/models.json +25 -13
- package/locales/pl-PL/auth.json +11 -2
- package/locales/pl-PL/models.json +25 -13
- package/locales/pt-BR/auth.json +11 -2
- package/locales/pt-BR/models.json +25 -13
- package/locales/ru-RU/auth.json +11 -2
- package/locales/ru-RU/models.json +25 -13
- package/locales/tr-TR/auth.json +11 -2
- package/locales/tr-TR/models.json +25 -13
- package/locales/vi-VN/auth.json +11 -2
- package/locales/vi-VN/models.json +25 -13
- package/locales/zh-CN/auth.json +18 -9
- package/locales/zh-CN/models.json +25 -13
- package/locales/zh-TW/auth.json +11 -2
- package/locales/zh-TW/models.json +25 -13
- package/next.config.ts +1 -1
- package/package.json +2 -1
- package/packages/database/migrations/0058_add_source_into_user_plugins.sql +1 -0
- package/packages/database/migrations/0059_add_normalized_email_indexes.sql +4 -0
- package/packages/database/migrations/meta/0058_snapshot.json +8432 -0
- package/packages/database/migrations/meta/0059_snapshot.json +8474 -0
- package/packages/database/migrations/meta/_journal.json +14 -0
- package/packages/database/src/core/migrations.json +31 -32
- package/packages/database/src/models/user.ts +13 -1
- package/packages/database/src/schemas/user.ts +39 -31
- package/src/app/(backend)/api/auth/check-user/route.ts +0 -6
- package/src/app/(backend)/api/auth/resolve-username/route.ts +52 -0
- package/src/app/[variants]/(auth)/signin/page.tsx +102 -14
- package/src/app/[variants]/(auth)/signup/[[...signup]]/BetterAuthSignUpForm.tsx +15 -0
- package/src/app/[variants]/(main)/profile/(home)/Client.tsx +152 -12
- package/src/app/[variants]/(main)/profile/(home)/features/SSOProvidersList/index.tsx +4 -9
- package/src/app/[variants]/desktopRouter.config.tsx +7 -1
- package/src/app/[variants]/mobileRouter.config.tsx +7 -1
- package/src/auth.ts +2 -0
- package/src/locales/default/auth.ts +17 -9
- package/src/server/routers/lambda/user.ts +18 -0
- package/src/services/user/index.ts +4 -0
- package/src/store/user/slices/auth/action.test.ts +2 -2
- package/src/store/user/slices/auth/action.ts +8 -8
- package/src/store/user/slices/auth/initialState.ts +1 -1
- package/src/store/user/slices/auth/selectors.ts +1 -1
- package/src/store/user/slices/common/action.ts +6 -0
|
@@ -221,6 +221,9 @@
|
|
|
221
221
|
"MiniMax-M2": {
|
|
222
222
|
"description": "Speziell entwickelt für effizientes Programmieren und Agent-Workflows."
|
|
223
223
|
},
|
|
224
|
+
"MiniMax-M2-Stable": {
|
|
225
|
+
"description": "Speziell entwickelt für effizientes Codieren und Agent-Workflows – höhere Parallelität, kommerzielle Nutzung möglich."
|
|
226
|
+
},
|
|
224
227
|
"MiniMax-Text-01": {
|
|
225
228
|
"description": "In der MiniMax-01-Serie haben wir mutige Innovationen vorgenommen: Erstmals wurde die lineare Aufmerksamkeitsmechanismus in großem Maßstab implementiert, sodass die traditionelle Transformer-Architektur nicht mehr die einzige Wahl ist. Dieses Modell hat eine Parameteranzahl von bis zu 456 Milliarden, wobei eine Aktivierung 45,9 Milliarden beträgt. Die Gesamtleistung des Modells kann mit den besten Modellen im Ausland mithalten und kann gleichzeitig effizient den weltweit längsten Kontext von 4 Millionen Tokens verarbeiten, was 32-mal so viel wie GPT-4o und 20-mal so viel wie Claude-3.5-Sonnet ist."
|
|
226
229
|
},
|
|
@@ -299,6 +302,9 @@
|
|
|
299
302
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
300
303
|
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
|
|
301
304
|
},
|
|
305
|
+
"Pro/moonshotai/Kimi-K2-Thinking": {
|
|
306
|
+
"description": "Kimi K2 Thinking Turbo ist die Turbo-Version der Kimi K2-Serie. Sie wurde für schnellere Inferenz und höheren Durchsatz optimiert, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Das Modell basiert auf einer Mixture-of-Experts (MoE)-Architektur mit rund 1 Billion Parametern, unterstützt nativ 256K Kontextlänge und kann stabile großskalige Werkzeugaufrufe ausführen – ideal für produktive Szenarien mit hohen Anforderungen an Latenz und Parallelität."
|
|
307
|
+
},
|
|
302
308
|
"QwQ-32B-Preview": {
|
|
303
309
|
"description": "QwQ-32B-Preview ist ein innovatives Modell für die Verarbeitung natürlicher Sprache, das komplexe Aufgaben der Dialoggenerierung und des Kontextverständnisses effizient bewältigen kann."
|
|
304
310
|
},
|
|
@@ -1052,6 +1058,9 @@
|
|
|
1052
1058
|
"deepseek-coder-v2:236b": {
|
|
1053
1059
|
"description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist."
|
|
1054
1060
|
},
|
|
1061
|
+
"deepseek-ocr": {
|
|
1062
|
+
"description": "DeepSeek-OCR ist ein visuelles Sprachmodell von DeepSeek AI, das sich auf optische Zeichenerkennung (OCR) und 'kontextuelle optische Kompression' spezialisiert. Es zielt darauf ab, die Grenzen der Kontextkompression aus Bildern zu erforschen, verarbeitet Dokumente effizient und wandelt sie in strukturierte Textformate wie Markdown um. Es erkennt Textinhalte in Bildern präzise und eignet sich besonders für Anwendungen wie Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung."
|
|
1063
|
+
},
|
|
1055
1064
|
"deepseek-r1": {
|
|
1056
1065
|
"description": "DeepSeek-R1 ist ein durch verstärkendes Lernen (RL) gesteuertes Inferenzmodell, das die Probleme der Wiederholbarkeit und Lesbarkeit im Modell löst. Vor dem RL führte DeepSeek-R1 Kaltstartdaten ein, um die Inferenzleistung weiter zu optimieren. Es zeigt in mathematischen, programmierbezogenen und Inferenzaufgaben eine vergleichbare Leistung zu OpenAI-o1 und verbessert durch sorgfältig gestaltete Trainingsmethoden die Gesamteffizienz."
|
|
1057
1066
|
},
|
|
@@ -1268,6 +1277,9 @@
|
|
|
1268
1277
|
"doubao-seed-1.6-vision": {
|
|
1269
1278
|
"description": "Doubao-Seed-1.6-vision ist ein visuelles Tiefdenkmodell, das in Szenarien wie Bildung, Bildprüfung, Inspektion und Sicherheit sowie KI-Suchfragen eine stärkere allgemeine multimodale Verständnis- und Schlussfolgerungsfähigkeit zeigt. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 64k Tokens."
|
|
1270
1279
|
},
|
|
1280
|
+
"doubao-seed-code": {
|
|
1281
|
+
"description": "Doubao-Seed-Code ist tiefgreifend für agentenbasiertes Programmieren optimiert. Es unterstützt Multimodalität (Text/Bild/Video) und 256K langen Kontext, ist kompatibel mit der Anthropic API und eignet sich für Programmierung, visuelles Verständnis und Agent-Szenarien."
|
|
1282
|
+
},
|
|
1271
1283
|
"doubao-seededit-3-0-i2i-250628": {
|
|
1272
1284
|
"description": "Das Doubao-Bildgenerierungsmodell wurde vom Seed-Team von ByteDance entwickelt, unterstützt Texteingaben und Bilder und bietet eine hochgradig kontrollierbare, qualitativ hochwertige Bildgenerierung. Es ermöglicht die Bildbearbeitung mittels Textanweisungen mit Bildseitenlängen zwischen 512 und 1536 Pixel."
|
|
1273
1285
|
},
|
|
@@ -1328,6 +1340,9 @@
|
|
|
1328
1340
|
"ernie-4.5-vl-28b-a3b": {
|
|
1329
1341
|
"description": "ERNIE 4.5 VL 28B A3B, ein Open-Source-Multimodalmodell für Bild-Text-Verständnis und Inferenzaufgaben."
|
|
1330
1342
|
},
|
|
1343
|
+
"ernie-5.0-thinking-latest": {
|
|
1344
|
+
"description": "Wenxin 5.0 Thinking ist ein natives, multimodales Flaggschiffmodell, das Text, Bild, Audio und Video in einem einheitlichen Modell verarbeitet. Es bietet umfassend verbesserte Fähigkeiten und eignet sich für komplexe Fragen, kreative Aufgaben und intelligente Agenten."
|
|
1345
|
+
},
|
|
1331
1346
|
"ernie-5.0-thinking-preview": {
|
|
1332
1347
|
"description": "Wenxin 5.0 Thinking Preview, ein natives, multimodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Umfassend verbesserte Fähigkeiten für komplexe QA, kreative Aufgaben und Agentenszenarien."
|
|
1333
1348
|
},
|
|
@@ -2198,9 +2213,6 @@
|
|
|
2198
2213
|
"kimi-latest": {
|
|
2199
2214
|
"description": "Das Kimi intelligente Assistenzprodukt verwendet das neueste Kimi Großmodell, das möglicherweise noch instabile Funktionen enthält. Es unterstützt die Bildverarbeitung und wählt automatisch das Abrechnungsmodell 8k/32k/128k basierend auf der Länge des angeforderten Kontexts aus."
|
|
2200
2215
|
},
|
|
2201
|
-
"kimi-thinking-preview": {
|
|
2202
|
-
"description": "Das kimi-thinking-preview Modell von Moon’s Dark Side ist ein multimodales Denkmodell mit Fähigkeiten zu multimodalem und allgemeinem logischem Denken. Es ist spezialisiert auf tiefgehende Schlussfolgerungen und hilft dabei, komplexere und schwierigere Aufgaben zu lösen."
|
|
2203
|
-
},
|
|
2204
2216
|
"kuaishou/kat-coder-pro-v1": {
|
|
2205
2217
|
"description": "KAT-Coder-Pro-V1 (zeitlich begrenzt kostenlos) ist auf Codeverständnis und automatisierte Programmierung spezialisiert – ideal für effiziente Programmieragenten."
|
|
2206
2218
|
},
|
|
@@ -2246,9 +2258,6 @@
|
|
|
2246
2258
|
"llama-3.3-instruct": {
|
|
2247
2259
|
"description": "Das Llama 3.3 Instruct-Modell ist für Dialogszenarien optimiert und übertrifft in gängigen Branchenbenchmarks viele bestehende Open-Source-Chatmodelle."
|
|
2248
2260
|
},
|
|
2249
|
-
"llama-4-scout-17b-16e-instruct": {
|
|
2250
|
-
"description": "Llama 4 Scout: Ein leistungsstarkes Modell der Llama-Serie, optimiert für Szenarien mit hoher Verarbeitungsgeschwindigkeit und niedriger Latenz."
|
|
2251
|
-
},
|
|
2252
2261
|
"llama3-70b-8192": {
|
|
2253
2262
|
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
|
|
2254
2263
|
},
|
|
@@ -2681,6 +2690,9 @@
|
|
|
2681
2690
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2682
2691
|
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
|
|
2683
2692
|
},
|
|
2693
|
+
"moonshotai/Kimi-K2-Thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking ist das neueste und leistungsstärkste Open-Source-Denkmodell. Es erweitert die Tiefe mehrstufiger Schlussfolgerungen erheblich und bleibt bei 200–300 aufeinanderfolgenden Werkzeugaufrufen stabil. Es setzt neue Maßstäbe in Benchmarks wie Humanity's Last Exam (HLE) und BrowseComp. K2 Thinking überzeugt in Programmierung, Mathematik, logischem Denken und Agent-Szenarien. Das Modell basiert auf einer Mixture-of-Experts (MoE)-Architektur mit rund 1 Billion Parametern, unterstützt 256K Kontextfenster und Werkzeugnutzung."
|
|
2695
|
+
},
|
|
2684
2696
|
"moonshotai/kimi-k2": {
|
|
2685
2697
|
"description": "Kimi K2 ist ein von Moonshot AI entwickeltes großes gemischtes Experten (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf. Es ist auf Agentenfähigkeiten optimiert, einschließlich fortgeschrittener Werkzeugnutzung, Inferenz und Code-Synthese."
|
|
2686
2698
|
},
|
|
@@ -2721,7 +2733,7 @@
|
|
|
2721
2733
|
"description": "Konzentriert sich auf fortgeschrittene Inferenz und die Lösung komplexer Probleme, einschließlich mathematischer und wissenschaftlicher Aufgaben. Besonders geeignet für Anwendungen, die ein tiefes Verständnis des Kontexts und die Abwicklung von Arbeitsabläufen erfordern."
|
|
2722
2734
|
},
|
|
2723
2735
|
"o1-mini": {
|
|
2724
|
-
"description": "
|
|
2736
|
+
"description": "Kleiner und schneller als o1-preview, 80 % kostengünstiger, mit guter Leistung bei Codegenerierung und Aufgaben mit kleinem Kontext."
|
|
2725
2737
|
},
|
|
2726
2738
|
"o1-preview": {
|
|
2727
2739
|
"description": "Konzentriert auf fortgeschrittenes Schlussfolgern und die Lösung komplexer Probleme, einschließlich mathematischer und naturwissenschaftlicher Aufgaben. Sehr gut geeignet für Anwendungen, die ein tiefes Kontextverständnis und autonome Arbeitsabläufe benötigen."
|
|
@@ -2960,9 +2972,6 @@
|
|
|
2960
2972
|
"qwen-3-32b": {
|
|
2961
2973
|
"description": "Qwen 3 32B: Ein Modell der Qwen-Serie mit starker Leistung bei mehrsprachigen und Programmieraufgaben, geeignet für mittelgroße produktive Einsätze."
|
|
2962
2974
|
},
|
|
2963
|
-
"qwen-3-coder-480b": {
|
|
2964
|
-
"description": "Qwen 3 Coder 480B: Ein Modell mit langem Kontext, das für Codegenerierung und komplexe Programmieraufgaben entwickelt wurde."
|
|
2965
|
-
},
|
|
2966
2975
|
"qwen-coder-plus": {
|
|
2967
2976
|
"description": "Tongyi Qianwen Codierungsmodell."
|
|
2968
2977
|
},
|
|
@@ -3323,6 +3332,9 @@
|
|
|
3323
3332
|
"sonar-reasoning-pro": {
|
|
3324
3333
|
"description": "Ein neues API-Produkt, das von dem DeepSeek-Inferenzmodell unterstützt wird."
|
|
3325
3334
|
},
|
|
3335
|
+
"spark-x": {
|
|
3336
|
+
"description": "X1.5-Funktionsübersicht: (1) Neue dynamische Denkmodusanpassung über das Feld 'thinking'; (2) Erweiterte Kontextlänge: je 64K für Eingabe und Ausgabe; (3) Unterstützung für FunctionCall-Funktion."
|
|
3337
|
+
},
|
|
3326
3338
|
"stable-diffusion-3-medium": {
|
|
3327
3339
|
"description": "Das neueste Text-zu-Bild-Großmodell von Stability AI. Diese Version verbessert signifikant Bildqualität, Textverständnis und Stilvielfalt gegenüber Vorgängerversionen, kann komplexe natürliche Sprachaufforderungen präziser interpretieren und erzeugt genauere und vielfältigere Bilder."
|
|
3328
3340
|
},
|
|
@@ -3524,9 +3536,6 @@
|
|
|
3524
3536
|
"x-ai/grok-code-fast-1": {
|
|
3525
3537
|
"description": "Grok Code Fast 1 ist ein schnelles Codierungsmodell von xAI mit gut lesbarer und engineering-tauglicher Ausgabe."
|
|
3526
3538
|
},
|
|
3527
|
-
"x1": {
|
|
3528
|
-
"description": "Das Spark X1 Modell wird weiter verbessert und erreicht in allgemeinen Aufgaben wie Schlussfolgerungen, Textgenerierung und Sprachverständnis Ergebnisse, die mit OpenAI o1 und DeepSeek R1 vergleichbar sind, basierend auf der bereits führenden Leistung in mathematischen Aufgaben."
|
|
3529
|
-
},
|
|
3530
3539
|
"xai/grok-2": {
|
|
3531
3540
|
"description": "Grok 2 ist ein fortschrittliches Sprachmodell mit modernsten Inferenzfähigkeiten. Es bietet fortschrittliche Fähigkeiten in Chat, Codierung und Inferenz und übertrifft Claude 3.5 Sonnet und GPT-4-Turbo in der LMSYS-Rangliste."
|
|
3532
3541
|
},
|
|
@@ -3593,6 +3602,9 @@
|
|
|
3593
3602
|
"z-ai/glm-4.6": {
|
|
3594
3603
|
"description": "GLM 4.6 ist das Flaggschiffmodell von Z.AI mit erweitertem Kontext und verbesserter Codierungsleistung."
|
|
3595
3604
|
},
|
|
3605
|
+
"zai-glm-4.6": {
|
|
3606
|
+
"description": "Hervorragende Leistung bei Programmier- und Schlussfolgerungsaufgaben, unterstützt Streaming und Werkzeugaufrufe – ideal für agentenbasiertes Codieren und komplexe Denkprozesse."
|
|
3607
|
+
},
|
|
3596
3608
|
"zai-org/GLM-4.5": {
|
|
3597
3609
|
"description": "GLM-4.5 ist ein speziell für Agentenanwendungen entwickeltes Basismodell mit Mixture-of-Experts-Architektur. Es ist tief optimiert für Werkzeugaufrufe, Web-Browsing, Softwareentwicklung und Frontend-Programmierung und unterstützt nahtlos die Integration in Code-Agenten wie Claude Code und Roo Code. GLM-4.5 verwendet einen hybriden Inferenzmodus und ist für komplexe Schlussfolgerungen sowie den Alltagsgebrauch geeignet."
|
|
3598
3610
|
},
|
package/locales/en-US/auth.json
CHANGED
|
@@ -54,10 +54,11 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
-
"emailInvalid": "Please enter a valid email address",
|
|
58
|
-
"
|
|
57
|
+
"emailInvalid": "Please enter a valid email address or username",
|
|
58
|
+
"emailExists": "This email is already registered. Please sign in instead",
|
|
59
|
+
"emailNotRegistered": "This email or username is not registered",
|
|
59
60
|
"emailNotVerified": "Email not verified, please verify your email first",
|
|
60
|
-
"emailRequired": "Please enter your email address",
|
|
61
|
+
"emailRequired": "Please enter your email address or username",
|
|
61
62
|
"firstNameRequired": "Please enter your first name",
|
|
62
63
|
"lastNameRequired": "Please enter your last name",
|
|
63
64
|
"loginFailed": "Login failed, please check your email and password",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "Password must not exceed 64 characters",
|
|
66
67
|
"passwordMinLength": "Password must be at least 8 characters",
|
|
67
68
|
"passwordRequired": "Please enter your password",
|
|
69
|
+
"usernameNotRegistered": "This username is not registered",
|
|
68
70
|
"usernameRequired": "Please enter your username"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -99,9 +101,8 @@
|
|
|
99
101
|
"continueWithOkta": "Sign in with Okta",
|
|
100
102
|
"continueWithWechat": "Sign in with WeChat",
|
|
101
103
|
"continueWithZitadel": "Sign in with Zitadel",
|
|
102
|
-
"emailPlaceholder": "Enter your email
|
|
104
|
+
"emailPlaceholder": "Enter your email or username",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "Enter your email address to continue",
|
|
105
106
|
"title": "Sign In"
|
|
106
107
|
},
|
|
107
108
|
"error": "Sign in failed, please check your email and password",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "Failed to send password reset link",
|
|
195
196
|
"resetPasswordSent": "Password reset link sent, please check your email",
|
|
196
197
|
"save": "Save",
|
|
198
|
+
"setPassword": "Set password",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "Connect Account",
|
|
@@ -202,15 +204,22 @@
|
|
|
202
204
|
"loading": "Loading linked third-party accounts",
|
|
203
205
|
"providers": "Connected Accounts",
|
|
204
206
|
"unlink": {
|
|
205
|
-
"description": "
|
|
206
|
-
"forbidden": "You must retain at least one
|
|
207
|
-
"title": "
|
|
207
|
+
"description": "Re-authorization or re-linking is required to sign in with {{provider}} again after unlinking.",
|
|
208
|
+
"forbidden": "You must retain at least one login method.",
|
|
209
|
+
"title": "Unlink {{provider}} account?"
|
|
208
210
|
}
|
|
209
211
|
},
|
|
210
212
|
"title": "Profile Details",
|
|
211
213
|
"updateAvatar": "Update avatar",
|
|
212
214
|
"updateFullName": "Update fullname",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "Update username",
|
|
216
|
+
"username": "Username",
|
|
217
|
+
"usernameDuplicate": "Username is already taken",
|
|
218
|
+
"usernameInputHint": "Please enter your new username",
|
|
219
|
+
"usernamePlaceholder": "Enter a username with letters, numbers, or underscores",
|
|
220
|
+
"usernameRequired": "Username cannot be empty",
|
|
221
|
+
"usernameRule": "Username can only contain letters, numbers, or underscores",
|
|
222
|
+
"usernameUpdateFailed": "Failed to update username, please try again later"
|
|
214
223
|
},
|
|
215
224
|
"signout": "Log Out",
|
|
216
225
|
"signup": "Sign Up",
|
|
@@ -221,6 +221,9 @@
|
|
|
221
221
|
"MiniMax-M2": {
|
|
222
222
|
"description": "Purpose-built for efficient coding and agent workflows."
|
|
223
223
|
},
|
|
224
|
+
"MiniMax-M2-Stable": {
|
|
225
|
+
"description": "Designed for efficient coding and agent workflows, offering higher concurrency and suitable for commercial use."
|
|
226
|
+
},
|
|
224
227
|
"MiniMax-Text-01": {
|
|
225
228
|
"description": "In the MiniMax-01 series of models, we have made bold innovations: for the first time, we have implemented a linear attention mechanism on a large scale, making the traditional Transformer architecture no longer the only option. This model has a parameter count of up to 456 billion, with a single activation of 45.9 billion. Its overall performance rivals that of top overseas models while efficiently handling the world's longest context of 4 million tokens, which is 32 times that of GPT-4o and 20 times that of Claude-3.5-Sonnet."
|
|
226
229
|
},
|
|
@@ -299,6 +302,9 @@
|
|
|
299
302
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
300
303
|
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
|
|
301
304
|
},
|
|
305
|
+
"Pro/moonshotai/Kimi-K2-Thinking": {
|
|
306
|
+
"description": "Kimi K2 Thinking Turbo is the turbocharged version of the Kimi K2 series, optimized for inference speed and throughput while retaining K2 Thinking’s multi-step reasoning and tool-calling capabilities. Built on a Mixture of Experts (MoE) architecture with approximately 1 trillion parameters, it natively supports a 256K context window and can reliably handle large-scale tool usage, making it ideal for production environments with high demands on latency and concurrency."
|
|
307
|
+
},
|
|
302
308
|
"QwQ-32B-Preview": {
|
|
303
309
|
"description": "QwQ-32B-Preview is an innovative natural language processing model capable of efficiently handling complex dialogue generation and context understanding tasks."
|
|
304
310
|
},
|
|
@@ -1052,6 +1058,9 @@
|
|
|
1052
1058
|
"deepseek-coder-v2:236b": {
|
|
1053
1059
|
"description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo."
|
|
1054
1060
|
},
|
|
1061
|
+
"deepseek-ocr": {
|
|
1062
|
+
"description": "DeepSeek-OCR is a vision-language model developed by DeepSeek AI, focused on Optical Character Recognition (OCR) and 'contextual optical compression.' It explores the limits of compressing contextual information from images, efficiently processing documents and converting them into structured formats like Markdown. It excels at accurately recognizing text within images, making it well-suited for document digitization, text extraction, and structured data processing."
|
|
1063
|
+
},
|
|
1055
1064
|
"deepseek-r1": {
|
|
1056
1065
|
"description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
|
|
1057
1066
|
},
|
|
@@ -1268,6 +1277,9 @@
|
|
|
1268
1277
|
"doubao-seed-1.6-vision": {
|
|
1269
1278
|
"description": "Doubao-Seed-1.6-vision is a visual deep thinking model that demonstrates stronger general multimodal understanding and reasoning capabilities in scenarios such as education, image review, inspection and security, and AI search Q&A. It supports a 256k context window and an output length of up to 64k tokens."
|
|
1270
1279
|
},
|
|
1280
|
+
"doubao-seed-code": {
|
|
1281
|
+
"description": "Doubao-Seed-Code is deeply optimized for agentic programming tasks, supporting multimodal inputs (text/image/video) and a 256K long context window. It is compatible with the Anthropic API and ideal for programming, visual understanding, and agent-based scenarios."
|
|
1282
|
+
},
|
|
1271
1283
|
"doubao-seededit-3-0-i2i-250628": {
|
|
1272
1284
|
"description": "Doubao image generation model developed by ByteDance Seed team supports both text and image inputs, providing a highly controllable and high-quality image generation experience. Supports image editing via text instructions, generating images with dimensions between 512 and 1536 pixels."
|
|
1273
1285
|
},
|
|
@@ -1328,6 +1340,9 @@
|
|
|
1328
1340
|
"ernie-4.5-vl-28b-a3b": {
|
|
1329
1341
|
"description": "ERNIE 4.5 VL 28B A3B, an open-source multimodal model supporting image-text understanding and reasoning tasks."
|
|
1330
1342
|
},
|
|
1343
|
+
"ernie-5.0-thinking-latest": {
|
|
1344
|
+
"description": "ERNIE 5.0 Thinking is a flagship native multimodal model that supports unified modeling of text, images, audio, and video. With comprehensive capability upgrades, it is well-suited for complex Q&A, creative tasks, and intelligent agent applications."
|
|
1345
|
+
},
|
|
1331
1346
|
"ernie-5.0-thinking-preview": {
|
|
1332
1347
|
"description": "ERNIE 5.0 Thinking Preview, a native all-modality flagship model supporting unified modeling of text, image, audio, and video, with comprehensive capability upgrades for complex Q&A, creative tasks, and agent scenarios."
|
|
1333
1348
|
},
|
|
@@ -2198,9 +2213,6 @@
|
|
|
2198
2213
|
"kimi-latest": {
|
|
2199
2214
|
"description": "The Kimi Smart Assistant product uses the latest Kimi large model, which may include features that are not yet stable. It supports image understanding and will automatically select the 8k/32k/128k model as the billing model based on the length of the request context."
|
|
2200
2215
|
},
|
|
2201
|
-
"kimi-thinking-preview": {
|
|
2202
|
-
"description": "kimi-thinking-preview is a multimodal thinking model provided by Dark Side of the Moon, featuring multimodal and general reasoning abilities. It excels at deep reasoning to help solve more complex and challenging problems."
|
|
2203
|
-
},
|
|
2204
2216
|
"kuaishou/kat-coder-pro-v1": {
|
|
2205
2217
|
"description": "KAT-Coder-Pro-V1 (limited-time free) focuses on code understanding and automated programming, designed for efficient coding agent tasks."
|
|
2206
2218
|
},
|
|
@@ -2246,9 +2258,6 @@
|
|
|
2246
2258
|
"llama-3.3-instruct": {
|
|
2247
2259
|
"description": "The Llama 3.3 instruction-tuned model is optimized for conversational scenarios, outperforming many existing open-source chat models on common industry benchmarks."
|
|
2248
2260
|
},
|
|
2249
|
-
"llama-4-scout-17b-16e-instruct": {
|
|
2250
|
-
"description": "Llama 4 Scout: A high-performance Llama model optimized for scenarios requiring high throughput and low latency."
|
|
2251
|
-
},
|
|
2252
2261
|
"llama3-70b-8192": {
|
|
2253
2262
|
"description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects."
|
|
2254
2263
|
},
|
|
@@ -2681,6 +2690,9 @@
|
|
|
2681
2690
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2682
2691
|
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
|
|
2683
2692
|
},
|
|
2693
|
+
"moonshotai/Kimi-K2-Thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking is the latest and most powerful open-source reasoning model. It significantly extends multi-step reasoning depth and maintains stable tool usage across 200–300 consecutive tool calls. It sets new benchmarks in evaluations such as Humanity's Last Exam (HLE) and BrowseComp. The model excels in programming, mathematics, logical reasoning, and agent-based scenarios. Built on a Mixture of Experts (MoE) architecture with approximately 1 trillion parameters, it supports a 256K context window and tool calling."
|
|
2695
|
+
},
|
|
2684
2696
|
"moonshotai/kimi-k2": {
|
|
2685
2697
|
"description": "Kimi K2 is a large-scale Mixture of Experts (MoE) language model developed by Moonshot AI, with a total of 1 trillion parameters and 32 billion active parameters per forward pass. It is optimized for agent capabilities, including advanced tool use, reasoning, and code synthesis."
|
|
2686
2698
|
},
|
|
@@ -2721,7 +2733,7 @@
|
|
|
2721
2733
|
"description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. It is particularly well-suited for applications that require deep contextual understanding and agent workflow."
|
|
2722
2734
|
},
|
|
2723
2735
|
"o1-mini": {
|
|
2724
|
-
"description": "
|
|
2736
|
+
"description": "Smaller and faster than o1-preview, with 80% lower cost. Performs well in code generation and tasks involving small context windows."
|
|
2725
2737
|
},
|
|
2726
2738
|
"o1-preview": {
|
|
2727
2739
|
"description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. Ideal for applications that require deep contextual understanding and autonomous workflows."
|
|
@@ -2960,9 +2972,6 @@
|
|
|
2960
2972
|
"qwen-3-32b": {
|
|
2961
2973
|
"description": "Qwen 3 32B: A strong performer in multilingual and coding tasks, suitable for medium-scale production use."
|
|
2962
2974
|
},
|
|
2963
|
-
"qwen-3-coder-480b": {
|
|
2964
|
-
"description": "Qwen 3 Coder 480B: A long-context model designed for code generation and complex programming tasks."
|
|
2965
|
-
},
|
|
2966
2975
|
"qwen-coder-plus": {
|
|
2967
2976
|
"description": "Tongyi Qianwen coding model."
|
|
2968
2977
|
},
|
|
@@ -3323,6 +3332,9 @@
|
|
|
3323
3332
|
"sonar-reasoning-pro": {
|
|
3324
3333
|
"description": "A new API product powered by the DeepSeek reasoning model."
|
|
3325
3334
|
},
|
|
3335
|
+
"spark-x": {
|
|
3336
|
+
"description": "X1.5 Capabilities: (1) Introduces dynamic thinking mode adjustment via the 'thinking' field; (2) Increased context length: 64K for both input and output; (3) Supports FunctionCall functionality."
|
|
3337
|
+
},
|
|
3326
3338
|
"stable-diffusion-3-medium": {
|
|
3327
3339
|
"description": "The latest text-to-image large model released by Stability AI. This version inherits the advantages of its predecessors and significantly improves image quality, text understanding, and style diversity, enabling more accurate interpretation of complex natural language prompts and generating more precise and diverse images."
|
|
3328
3340
|
},
|
|
@@ -3524,9 +3536,6 @@
|
|
|
3524
3536
|
"x-ai/grok-code-fast-1": {
|
|
3525
3537
|
"description": "Grok Code Fast 1 is xAI’s fast code model, delivering readable and production-ready output."
|
|
3526
3538
|
},
|
|
3527
|
-
"x1": {
|
|
3528
|
-
"description": "The Spark X1 model will undergo further upgrades, achieving results in reasoning, text generation, and language understanding tasks that match OpenAI o1 and DeepSeek R1, building on its leading position in domestic mathematical tasks."
|
|
3529
|
-
},
|
|
3530
3539
|
"xai/grok-2": {
|
|
3531
3540
|
"description": "Grok 2 is a cutting-edge language model with state-of-the-art reasoning capabilities. It excels in chat, coding, and reasoning, outperforming Claude 3.5 Sonnet and GPT-4-Turbo on the LMSYS leaderboard."
|
|
3532
3541
|
},
|
|
@@ -3593,6 +3602,9 @@
|
|
|
3593
3602
|
"z-ai/glm-4.6": {
|
|
3594
3603
|
"description": "GLM 4.6 is Z.AI’s flagship model, with extended context length and enhanced coding capabilities."
|
|
3595
3604
|
},
|
|
3605
|
+
"zai-glm-4.6": {
|
|
3606
|
+
"description": "Performs well in programming and reasoning tasks, supports streaming and tool calling, and is suitable for agentic coding and complex reasoning scenarios."
|
|
3607
|
+
},
|
|
3596
3608
|
"zai-org/GLM-4.5": {
|
|
3597
3609
|
"description": "GLM-4.5 is a foundational model designed specifically for agent applications, using a Mixture-of-Experts (MoE) architecture. It is deeply optimized for tool invocation, web browsing, software engineering, and front-end programming, supporting seamless integration with code agents like Claude Code and Roo Code. GLM-4.5 employs a hybrid inference mode, adaptable to complex reasoning and everyday use scenarios."
|
|
3598
3610
|
},
|
package/locales/es-ES/auth.json
CHANGED
|
@@ -54,6 +54,7 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
+
"emailExists": "Este correo electrónico ya está registrado. Por favor, inicia sesión directamente.",
|
|
57
58
|
"emailInvalid": "Por favor, introduce una dirección de correo electrónico válida",
|
|
58
59
|
"emailNotRegistered": "Este correo electrónico no está registrado",
|
|
59
60
|
"emailNotVerified": "El correo electrónico no ha sido verificado. Por favor, verifica tu correo primero",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "La contraseña no puede tener más de 64 caracteres",
|
|
66
67
|
"passwordMinLength": "La contraseña debe tener al menos 8 caracteres",
|
|
67
68
|
"passwordRequired": "Por favor, introduce tu contraseña",
|
|
69
|
+
"usernameNotRegistered": "Este nombre de usuario no está registrado",
|
|
68
70
|
"usernameRequired": "Por favor, introduce tu nombre de usuario"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -101,7 +103,6 @@
|
|
|
101
103
|
"continueWithZitadel": "Iniciar sesión con Zitadel",
|
|
102
104
|
"emailPlaceholder": "Introduce tu dirección de correo electrónico",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "Introduce tu dirección de correo electrónico para continuar",
|
|
105
106
|
"title": "Iniciar sesión"
|
|
106
107
|
},
|
|
107
108
|
"error": "Error al iniciar sesión. Verifica tu correo electrónico y contraseña",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "Error al enviar el enlace de restablecimiento de contraseña",
|
|
195
196
|
"resetPasswordSent": "Enlace de restablecimiento de contraseña enviado. Revisa tu correo",
|
|
196
197
|
"save": "Guardar",
|
|
198
|
+
"setPassword": "Establecer contraseña",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "Conectar cuenta",
|
|
@@ -210,7 +212,14 @@
|
|
|
210
212
|
"title": "Detalles del perfil",
|
|
211
213
|
"updateAvatar": "Actualizar avatar",
|
|
212
214
|
"updateFullName": "Actualizar nombre completo",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "Actualizar nombre de usuario",
|
|
216
|
+
"username": "Nombre de usuario",
|
|
217
|
+
"usernameDuplicate": "El nombre de usuario ya está en uso",
|
|
218
|
+
"usernameInputHint": "Por favor, introduce un nuevo nombre de usuario",
|
|
219
|
+
"usernamePlaceholder": "Introduce un nombre de usuario compuesto por letras, números o guiones bajos",
|
|
220
|
+
"usernameRequired": "El nombre de usuario no puede estar vacío",
|
|
221
|
+
"usernameRule": "El nombre de usuario solo puede contener letras, números o guiones bajos",
|
|
222
|
+
"usernameUpdateFailed": "Error al actualizar el nombre de usuario, inténtalo de nuevo más tarde"
|
|
214
223
|
},
|
|
215
224
|
"signout": "Cerrar sesión",
|
|
216
225
|
"signup": "Registrarse",
|
|
@@ -221,6 +221,9 @@
|
|
|
221
221
|
"MiniMax-M2": {
|
|
222
222
|
"description": "Diseñado específicamente para una codificación eficiente y flujos de trabajo con agentes."
|
|
223
223
|
},
|
|
224
|
+
"MiniMax-M2-Stable": {
|
|
225
|
+
"description": "Diseñado para una codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia y uso comercial."
|
|
226
|
+
},
|
|
224
227
|
"MiniMax-Text-01": {
|
|
225
228
|
"description": "En la serie de modelos MiniMax-01, hemos realizado una innovación audaz: la implementación a gran escala del mecanismo de atención lineal, donde la arquitectura Transformer tradicional ya no es la única opción. Este modelo tiene una cantidad de parámetros de hasta 456 mil millones, con 45.9 mil millones por activación. El rendimiento general del modelo es comparable a los mejores modelos internacionales, y puede manejar de manera eficiente contextos de hasta 4 millones de tokens, que es 32 veces más que GPT-4o y 20 veces más que Claude-3.5-Sonnet."
|
|
226
229
|
},
|
|
@@ -299,6 +302,9 @@
|
|
|
299
302
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
300
303
|
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
|
|
301
304
|
},
|
|
305
|
+
"Pro/moonshotai/Kimi-K2-Thinking": {
|
|
306
|
+
"description": "Kimi K2 Thinking Turbo es la versión Turbo de la serie Kimi K2, optimizada para la velocidad de inferencia y el rendimiento, manteniendo la capacidad de razonamiento multietapa y uso de herramientas de K2 Thinking. Este modelo se basa en una arquitectura de expertos mixtos (MoE), con aproximadamente 1 billón de parámetros, soporte nativo para contextos de hasta 256K y ejecución estable de llamadas a herramientas a gran escala. Ideal para entornos de producción con altas exigencias de latencia y concurrencia."
|
|
307
|
+
},
|
|
302
308
|
"QwQ-32B-Preview": {
|
|
303
309
|
"description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
|
|
304
310
|
},
|
|
@@ -1052,6 +1058,9 @@
|
|
|
1052
1058
|
"deepseek-coder-v2:236b": {
|
|
1053
1059
|
"description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo."
|
|
1054
1060
|
},
|
|
1061
|
+
"deepseek-ocr": {
|
|
1062
|
+
"description": "DeepSeek-OCR es un modelo de lenguaje visual desarrollado por DeepSeek AI, enfocado en el reconocimiento óptico de caracteres (OCR) y la 'compresión óptica contextual'. El modelo explora los límites de la compresión de información contextual a partir de imágenes, permitiendo procesar documentos de forma eficiente y convertirlos en formatos estructurados como Markdown. Es capaz de reconocer con precisión el contenido textual en imágenes, siendo especialmente útil para digitalización de documentos, extracción de texto y procesamiento estructurado."
|
|
1063
|
+
},
|
|
1055
1064
|
"deepseek-r1": {
|
|
1056
1065
|
"description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
|
|
1057
1066
|
},
|
|
@@ -1268,6 +1277,9 @@
|
|
|
1268
1277
|
"doubao-seed-1.6-vision": {
|
|
1269
1278
|
"description": "Doubao-Seed-1.6-vision es un modelo de pensamiento profundo visual que demuestra una capacidad multimodal general más fuerte en escenarios como educación, revisión de imágenes, inspección y seguridad, y búsqueda y respuesta con IA. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 64k tokens."
|
|
1270
1279
|
},
|
|
1280
|
+
"doubao-seed-code": {
|
|
1281
|
+
"description": "Doubao-Seed-Code está profundamente optimizado para tareas de programación agentic, con soporte multimodal (texto/imágenes/video) y contextos largos de hasta 256K. Compatible con la API de Anthropic, es ideal para programación, comprensión visual y escenarios con agentes."
|
|
1282
|
+
},
|
|
1271
1283
|
"doubao-seededit-3-0-i2i-250628": {
|
|
1272
1284
|
"description": "El modelo de generación de imágenes Doubao fue desarrollado por el equipo Seed de ByteDance, soporta entrada de texto e imagen, ofreciendo una experiencia de generación de imágenes altamente controlable y de alta calidad. Permite editar imágenes mediante instrucciones de texto, generando imágenes con lados entre 512 y 1536 píxeles."
|
|
1273
1285
|
},
|
|
@@ -1328,6 +1340,9 @@
|
|
|
1328
1340
|
"ernie-4.5-vl-28b-a3b": {
|
|
1329
1341
|
"description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código abierto, compatible con tareas de comprensión e inferencia de imágenes y texto."
|
|
1330
1342
|
},
|
|
1343
|
+
"ernie-5.0-thinking-latest": {
|
|
1344
|
+
"description": "Ernie 5.0 Thinking es un modelo insignia multimodal nativo que integra texto, imagen, audio y video en una única arquitectura. Con capacidades ampliamente mejoradas, es adecuado para preguntas complejas, creación de contenido y escenarios con agentes inteligentes."
|
|
1345
|
+
},
|
|
1331
1346
|
"ernie-5.0-thinking-preview": {
|
|
1332
1347
|
"description": "ERNIE 5.0 Thinking Preview, modelo insignia nativo totalmente multimodal, compatible con modelado unificado de texto, imagen, audio y video, con capacidades integrales mejoradas, ideal para preguntas complejas, creación y agentes inteligentes."
|
|
1333
1348
|
},
|
|
@@ -2198,9 +2213,6 @@
|
|
|
2198
2213
|
"kimi-latest": {
|
|
2199
2214
|
"description": "El producto asistente inteligente Kimi utiliza el último modelo grande de Kimi, que puede incluir características que aún no están estables. Soporta la comprensión de imágenes y seleccionará automáticamente el modelo de facturación de 8k/32k/128k según la longitud del contexto de la solicitud."
|
|
2200
2215
|
},
|
|
2201
|
-
"kimi-thinking-preview": {
|
|
2202
|
-
"description": "El modelo kimi-thinking-preview, proporcionado por la cara oculta de la luna, es un modelo multimodal de pensamiento con capacidades de razonamiento multimodal y general, especializado en razonamiento profundo para ayudar a resolver problemas más complejos."
|
|
2203
|
-
},
|
|
2204
2216
|
"kuaishou/kat-coder-pro-v1": {
|
|
2205
2217
|
"description": "KAT-Coder-Pro-V1 (gratis por tiempo limitado) se centra en la comprensión de código y programación automatizada, ideal para tareas de agente de programación eficiente."
|
|
2206
2218
|
},
|
|
@@ -2246,9 +2258,6 @@
|
|
|
2246
2258
|
"llama-3.3-instruct": {
|
|
2247
2259
|
"description": "El modelo de instrucción Llama 3.3, optimizado para escenarios de diálogo, supera a muchos modelos de chat de código abierto existentes en pruebas de referencia comunes de la industria."
|
|
2248
2260
|
},
|
|
2249
|
-
"llama-4-scout-17b-16e-instruct": {
|
|
2250
|
-
"description": "Llama 4 Scout: un modelo de alto rendimiento de la serie Llama, diseñado para escenarios que requieren alto rendimiento y baja latencia."
|
|
2251
|
-
},
|
|
2252
2261
|
"llama3-70b-8192": {
|
|
2253
2262
|
"description": "Meta Llama 3 70B proporciona una capacidad de procesamiento de complejidad inigualable, diseñado a medida para proyectos de alta demanda."
|
|
2254
2263
|
},
|
|
@@ -2681,6 +2690,9 @@
|
|
|
2681
2690
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2682
2691
|
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
|
|
2683
2692
|
},
|
|
2693
|
+
"moonshotai/Kimi-K2-Thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking es el modelo de razonamiento de código abierto más reciente y avanzado. Amplía significativamente la profundidad del razonamiento multietapa y mantiene un uso estable de herramientas en 200–300 llamadas consecutivas. Ha establecido nuevos estándares en pruebas como Humanity's Last Exam (HLE), BrowseComp y otros benchmarks. Además, K2 Thinking destaca en programación, matemáticas, razonamiento lógico y escenarios con agentes. Basado en una arquitectura de expertos mixtos (MoE), cuenta con aproximadamente 1 billón de parámetros, soporte para ventanas de contexto de 256K y llamadas a herramientas."
|
|
2695
|
+
},
|
|
2684
2696
|
"moonshotai/kimi-k2": {
|
|
2685
2697
|
"description": "Kimi K2 es un modelo de lenguaje de expertos mixtos (MoE) a gran escala desarrollado por Moonshot AI, con un total de un billón de parámetros y 32 mil millones de parámetros activos por pasada. Está optimizado para capacidades de agente, incluyendo uso avanzado de herramientas, razonamiento y síntesis de código."
|
|
2686
2698
|
},
|
|
@@ -2721,7 +2733,7 @@
|
|
|
2721
2733
|
"description": "Se centra en el razonamiento avanzado y la resolución de problemas complejos, incluidas tareas matemáticas y científicas. Es muy adecuado para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo de agentes."
|
|
2722
2734
|
},
|
|
2723
2735
|
"o1-mini": {
|
|
2724
|
-
"description": "
|
|
2736
|
+
"description": "Más pequeño y rápido que o1-preview, con un coste un 80% menor. Ofrece buen rendimiento en generación de código y operaciones con contextos pequeños."
|
|
2725
2737
|
},
|
|
2726
2738
|
"o1-preview": {
|
|
2727
2739
|
"description": "Enfocado en el razonamiento avanzado y en la resolución de problemas complejos, incluidas tareas de matemáticas y de ciencias. Es ideal para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo autónomos."
|
|
@@ -2960,9 +2972,6 @@
|
|
|
2960
2972
|
"qwen-3-32b": {
|
|
2961
2973
|
"description": "Qwen 3 32B: el modelo de la serie Qwen ofrece un excelente rendimiento en tareas multilingües y de codificación, ideal para aplicaciones de producción a escala media."
|
|
2962
2974
|
},
|
|
2963
|
-
"qwen-3-coder-480b": {
|
|
2964
|
-
"description": "Qwen 3 Coder 480B: un modelo de contexto largo diseñado para generación de código y tareas complejas de programación."
|
|
2965
|
-
},
|
|
2966
2975
|
"qwen-coder-plus": {
|
|
2967
2976
|
"description": "Modelo de código Tongyi Qianwen."
|
|
2968
2977
|
},
|
|
@@ -3323,6 +3332,9 @@
|
|
|
3323
3332
|
"sonar-reasoning-pro": {
|
|
3324
3333
|
"description": "Un nuevo producto API respaldado por el modelo de razonamiento DeepSeek."
|
|
3325
3334
|
},
|
|
3335
|
+
"spark-x": {
|
|
3336
|
+
"description": "Descripción de capacidades de X1.5: (1) Nuevo ajuste dinámico del modo de pensamiento, controlado mediante el campo 'thinking'; (2) Longitud de contexto aumentada: 64K de entrada y 64K de salida; (3) Soporte para la función FunctionCall."
|
|
3337
|
+
},
|
|
3326
3338
|
"stable-diffusion-3-medium": {
|
|
3327
3339
|
"description": "El último gran modelo de generación de imágenes a partir de texto lanzado por Stability AI. Esta versión mejora significativamente la calidad de imagen, comprensión textual y diversidad de estilos, heredando las ventajas de generaciones anteriores. Puede interpretar con mayor precisión indicaciones complejas en lenguaje natural y generar imágenes más precisas y variadas."
|
|
3328
3340
|
},
|
|
@@ -3524,9 +3536,6 @@
|
|
|
3524
3536
|
"x-ai/grok-code-fast-1": {
|
|
3525
3537
|
"description": "Grok Code Fast 1 es el modelo rápido de código de xAI, con salidas legibles y adaptadas a la ingeniería."
|
|
3526
3538
|
},
|
|
3527
|
-
"x1": {
|
|
3528
|
-
"description": "El modelo Spark X1 se actualizará aún más, logrando resultados en tareas generales como razonamiento, generación de texto y comprensión del lenguaje que se comparan con OpenAI o1 y DeepSeek R1, además de liderar en tareas matemáticas en el país."
|
|
3529
|
-
},
|
|
3530
3539
|
"xai/grok-2": {
|
|
3531
3540
|
"description": "Grok 2 es un modelo de lenguaje de vanguardia con capacidades de razonamiento avanzadas. Sobresale en chat, codificación y razonamiento, superando a Claude 3.5 Sonnet y GPT-4-Turbo en la clasificación LMSYS."
|
|
3532
3541
|
},
|
|
@@ -3593,6 +3602,9 @@
|
|
|
3593
3602
|
"z-ai/glm-4.6": {
|
|
3594
3603
|
"description": "GLM 4.6 es el modelo insignia de Z.AI, con contexto extendido y capacidades de codificación mejoradas."
|
|
3595
3604
|
},
|
|
3605
|
+
"zai-glm-4.6": {
|
|
3606
|
+
"description": "Rinde excelentemente en tareas de programación y razonamiento, con soporte para transmisión en tiempo real y llamadas a herramientas. Ideal para codificación agentic y escenarios de razonamiento complejo."
|
|
3607
|
+
},
|
|
3596
3608
|
"zai-org/GLM-4.5": {
|
|
3597
3609
|
"description": "GLM-4.5 es un modelo base diseñado para aplicaciones de agentes inteligentes, utilizando arquitectura Mixture-of-Experts (MoE). Está profundamente optimizado para llamadas a herramientas, navegación web, ingeniería de software y programación frontend, soportando integración fluida con agentes de código como Claude Code y Roo Code. GLM-4.5 emplea un modo de inferencia híbrido que se adapta a escenarios de razonamiento complejo y uso cotidiano."
|
|
3598
3610
|
},
|
package/locales/fa-IR/auth.json
CHANGED
|
@@ -54,6 +54,7 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
+
"emailExists": "این ایمیل قبلاً ثبت شده است، لطفاً مستقیماً وارد شوید",
|
|
57
58
|
"emailInvalid": "لطفاً یک آدرس ایمیل معتبر وارد کنید",
|
|
58
59
|
"emailNotRegistered": "این ایمیل هنوز ثبت نشده است",
|
|
59
60
|
"emailNotVerified": "ایمیل تأیید نشده است، لطفاً ابتدا آن را تأیید کنید",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "رمز عبور نباید بیش از ۶۴ کاراکتر باشد",
|
|
66
67
|
"passwordMinLength": "رمز عبور باید حداقل ۸ کاراکتر باشد",
|
|
67
68
|
"passwordRequired": "لطفاً رمز عبور را وارد کنید",
|
|
69
|
+
"usernameNotRegistered": "این نام کاربری هنوز ثبت نشده است",
|
|
68
70
|
"usernameRequired": "لطفاً نام کاربری را وارد کنید"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -101,7 +103,6 @@
|
|
|
101
103
|
"continueWithZitadel": "ورود با Zitadel",
|
|
102
104
|
"emailPlaceholder": "لطفاً آدرس ایمیل را وارد کنید",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "برای ادامه، لطفاً آدرس ایمیل خود را وارد کنید",
|
|
105
106
|
"title": "ورود"
|
|
106
107
|
},
|
|
107
108
|
"error": "ورود ناموفق بود، لطفاً ایمیل و رمز عبور را بررسی کنید",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "ارسال لینک بازنشانی رمز عبور ناموفق بود",
|
|
195
196
|
"resetPasswordSent": "لینک بازنشانی رمز عبور ارسال شد، لطفاً ایمیل خود را بررسی کنید",
|
|
196
197
|
"save": "ذخیره",
|
|
198
|
+
"setPassword": "تنظیم گذرواژه",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "اتصال حساب",
|
|
@@ -210,7 +212,14 @@
|
|
|
210
212
|
"title": "جزئیات پروفایل",
|
|
211
213
|
"updateAvatar": "بهروزرسانی تصویر پروفایل",
|
|
212
214
|
"updateFullName": "بهروزرسانی نام کامل",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "بهروزرسانی نام کاربری",
|
|
216
|
+
"username": "نام کاربری",
|
|
217
|
+
"usernameDuplicate": "این نام کاربری قبلاً استفاده شده است",
|
|
218
|
+
"usernameInputHint": "لطفاً نام کاربری جدید را وارد کنید",
|
|
219
|
+
"usernamePlaceholder": "لطفاً نام کاربری شامل حروف، اعداد یا زیرخط (_) وارد کنید",
|
|
220
|
+
"usernameRequired": "نام کاربری نمیتواند خالی باشد",
|
|
221
|
+
"usernameRule": "نام کاربری فقط میتواند شامل حروف، اعداد یا زیرخط (_) باشد",
|
|
222
|
+
"usernameUpdateFailed": "بهروزرسانی نام کاربری انجام نشد، لطفاً بعداً دوباره تلاش کنید"
|
|
214
223
|
},
|
|
215
224
|
"signout": "خروج",
|
|
216
225
|
"signup": "ثبت نام",
|