@lobehub/lobehub 2.0.0-next.158 → 2.0.0-next.159
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.nvmrc +1 -1
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/development/database-schema.dbml +6 -0
- package/locales/ar/auth.json +11 -2
- package/locales/ar/models.json +25 -13
- package/locales/bg-BG/auth.json +11 -2
- package/locales/bg-BG/models.json +25 -13
- package/locales/de-DE/auth.json +11 -2
- package/locales/de-DE/models.json +25 -13
- package/locales/en-US/auth.json +18 -9
- package/locales/en-US/models.json +25 -13
- package/locales/es-ES/auth.json +11 -2
- package/locales/es-ES/models.json +25 -13
- package/locales/fa-IR/auth.json +11 -2
- package/locales/fa-IR/models.json +25 -13
- package/locales/fr-FR/auth.json +11 -2
- package/locales/fr-FR/models.json +25 -13
- package/locales/it-IT/auth.json +11 -2
- package/locales/it-IT/models.json +25 -13
- package/locales/ja-JP/auth.json +11 -2
- package/locales/ja-JP/models.json +25 -13
- package/locales/ko-KR/auth.json +11 -2
- package/locales/ko-KR/models.json +25 -13
- package/locales/nl-NL/auth.json +11 -2
- package/locales/nl-NL/models.json +25 -13
- package/locales/pl-PL/auth.json +11 -2
- package/locales/pl-PL/models.json +25 -13
- package/locales/pt-BR/auth.json +11 -2
- package/locales/pt-BR/models.json +25 -13
- package/locales/ru-RU/auth.json +11 -2
- package/locales/ru-RU/models.json +25 -13
- package/locales/tr-TR/auth.json +11 -2
- package/locales/tr-TR/models.json +25 -13
- package/locales/vi-VN/auth.json +11 -2
- package/locales/vi-VN/models.json +25 -13
- package/locales/zh-CN/auth.json +18 -9
- package/locales/zh-CN/models.json +25 -13
- package/locales/zh-TW/auth.json +11 -2
- package/locales/zh-TW/models.json +25 -13
- package/next.config.ts +1 -1
- package/package.json +2 -1
- package/packages/database/migrations/0059_add_normalized_email_indexes.sql +4 -0
- package/packages/database/migrations/meta/0059_snapshot.json +8474 -0
- package/packages/database/migrations/meta/_journal.json +7 -0
- package/packages/database/src/core/migrations.json +12 -0
- package/packages/database/src/models/user.ts +13 -1
- package/packages/database/src/schemas/user.ts +37 -29
- package/src/app/(backend)/api/auth/resolve-username/route.ts +52 -0
- package/src/app/[variants]/(auth)/signin/page.tsx +102 -14
- package/src/app/[variants]/(auth)/signup/[[...signup]]/BetterAuthSignUpForm.tsx +15 -0
- package/src/app/[variants]/(main)/profile/(home)/Client.tsx +152 -12
- package/src/app/[variants]/(main)/profile/(home)/features/SSOProvidersList/index.tsx +4 -9
- package/src/app/[variants]/desktopRouter.config.tsx +7 -1
- package/src/app/[variants]/mobileRouter.config.tsx +7 -1
- package/src/auth.ts +2 -0
- package/src/locales/default/auth.ts +17 -9
- package/src/server/routers/lambda/user.ts +18 -0
- package/src/services/user/index.ts +4 -0
- package/src/store/user/slices/auth/action.test.ts +2 -2
- package/src/store/user/slices/auth/action.ts +8 -8
- package/src/store/user/slices/auth/initialState.ts +1 -1
- package/src/store/user/slices/auth/selectors.ts +1 -1
- package/src/store/user/slices/common/action.ts +6 -0
package/.nvmrc
CHANGED
|
@@ -1 +1 @@
|
|
|
1
|
-
lts/
|
|
1
|
+
lts/krypton
|
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,31 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
## [Version 2.0.0-next.159](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.158...v2.0.0-next.159)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-12-04**</sup>
|
|
8
|
+
|
|
9
|
+
#### ✨ Features
|
|
10
|
+
|
|
11
|
+
- **misc**: Betterauth username signin.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### What's improved
|
|
19
|
+
|
|
20
|
+
- **misc**: Betterauth username signin, closes [#10607](https://github.com/lobehub/lobe-chat/issues/10607) ([f72a5e6](https://github.com/lobehub/lobe-chat/commit/f72a5e6))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
5
30
|
## [Version 2.0.0-next.158](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.157...v2.0.0-next.158)
|
|
6
31
|
|
|
7
32
|
<sup>Released on **2025-12-04**</sup>
|
package/changelog/v1.json
CHANGED
|
@@ -1046,6 +1046,7 @@ table users {
|
|
|
1046
1046
|
id text [pk, not null]
|
|
1047
1047
|
username text [unique]
|
|
1048
1048
|
email text [unique]
|
|
1049
|
+
normalized_email text [unique]
|
|
1049
1050
|
avatar text
|
|
1050
1051
|
phone text [unique]
|
|
1051
1052
|
first_name text
|
|
@@ -1065,6 +1066,11 @@ table users {
|
|
|
1065
1066
|
accessed_at "timestamp with time zone" [not null, default: `now()`]
|
|
1066
1067
|
created_at "timestamp with time zone" [not null, default: `now()`]
|
|
1067
1068
|
updated_at "timestamp with time zone" [not null, default: `now()`]
|
|
1069
|
+
|
|
1070
|
+
indexes {
|
|
1071
|
+
email [name: 'users_email_idx']
|
|
1072
|
+
username [name: 'users_username_idx']
|
|
1073
|
+
}
|
|
1068
1074
|
}
|
|
1069
1075
|
|
|
1070
1076
|
table user_memories {
|
package/locales/ar/auth.json
CHANGED
|
@@ -54,6 +54,7 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
+
"emailExists": "هذا البريد الإلكتروني مسجّل بالفعل، يرجى تسجيل الدخول مباشرة",
|
|
57
58
|
"emailInvalid": "يرجى إدخال عنوان بريد إلكتروني صالح",
|
|
58
59
|
"emailNotRegistered": "هذا البريد الإلكتروني غير مسجل",
|
|
59
60
|
"emailNotVerified": "لم يتم التحقق من البريد الإلكتروني، يرجى التحقق أولاً",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "يجب ألا تتجاوز كلمة المرور 64 حرفًا",
|
|
66
67
|
"passwordMinLength": "يجب أن تتكون كلمة المرور من 8 أحرف على الأقل",
|
|
67
68
|
"passwordRequired": "يرجى إدخال كلمة المرور",
|
|
69
|
+
"usernameNotRegistered": "اسم المستخدم هذا غير مسجل",
|
|
68
70
|
"usernameRequired": "يرجى إدخال اسم المستخدم"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -101,7 +103,6 @@
|
|
|
101
103
|
"continueWithZitadel": "تسجيل الدخول باستخدام Zitadel",
|
|
102
104
|
"emailPlaceholder": "يرجى إدخال عنوان البريد الإلكتروني",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "يرجى إدخال بريدك الإلكتروني للمتابعة",
|
|
105
106
|
"title": "تسجيل الدخول"
|
|
106
107
|
},
|
|
107
108
|
"error": "فشل تسجيل الدخول، يرجى التحقق من البريد الإلكتروني وكلمة المرور",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "فشل إرسال رابط إعادة تعيين كلمة المرور",
|
|
195
196
|
"resetPasswordSent": "تم إرسال رابط إعادة تعيين كلمة المرور، يرجى التحقق من بريدك الإلكتروني",
|
|
196
197
|
"save": "حفظ",
|
|
198
|
+
"setPassword": "تعيين كلمة المرور",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "ربط الحساب",
|
|
@@ -210,7 +212,14 @@
|
|
|
210
212
|
"title": "تفاصيل الملف الشخصي",
|
|
211
213
|
"updateAvatar": "تحديث الصورة الشخصية",
|
|
212
214
|
"updateFullName": "تحديث الاسم الكامل",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "تحديث اسم المستخدم",
|
|
216
|
+
"username": "اسم المستخدم",
|
|
217
|
+
"usernameDuplicate": "اسم المستخدم مستخدم بالفعل",
|
|
218
|
+
"usernameInputHint": "يرجى إدخال اسم مستخدم جديد",
|
|
219
|
+
"usernamePlaceholder": "يرجى إدخال اسم مستخدم مكوّن من أحرف أو أرقام أو شرطة سفلية",
|
|
220
|
+
"usernameRequired": "اسم المستخدم لا يمكن أن يكون فارغًا",
|
|
221
|
+
"usernameRule": "اسم المستخدم يجب أن يحتوي فقط على أحرف أو أرقام أو شرطة سفلية",
|
|
222
|
+
"usernameUpdateFailed": "فشل في تحديث اسم المستخدم، يرجى المحاولة لاحقًا"
|
|
214
223
|
},
|
|
215
224
|
"signout": "تسجيل الخروج",
|
|
216
225
|
"signup": "الاشتراك",
|
package/locales/ar/models.json
CHANGED
|
@@ -221,6 +221,9 @@
|
|
|
221
221
|
"MiniMax-M2": {
|
|
222
222
|
"description": "مصمم خصيصًا للترميز الفعّال وتدفقات عمل الوكلاء."
|
|
223
223
|
},
|
|
224
|
+
"MiniMax-M2-Stable": {
|
|
225
|
+
"description": "مصمم خصيصًا للترميز الفعّال وتدفقات عمل الوكلاء، يتميز بأداء متزامن أعلى ومناسب للاستخدام التجاري."
|
|
226
|
+
},
|
|
224
227
|
"MiniMax-Text-01": {
|
|
225
228
|
"description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
|
|
226
229
|
},
|
|
@@ -299,6 +302,9 @@
|
|
|
299
302
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
300
303
|
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
|
|
301
304
|
},
|
|
305
|
+
"Pro/moonshotai/Kimi-K2-Thinking": {
|
|
306
|
+
"description": "Kimi K2 Thinking Turbo هو الإصدار المعزز من سلسلة Kimi K2، تم تحسينه من حيث سرعة الاستدلال ومعدل النقل، مع الحفاظ على قدرات التفكير متعدد الخطوات واستدعاء الأدوات الخاصة بـ K2 Thinking. يعتمد النموذج على بنية الخبراء المختلطة (MoE) ويحتوي على حوالي 1 تيرابايت من المعلمات، ويدعم سياقًا يصل إلى 256 ألف رمز بشكل أصلي، ويمكنه تنفيذ استدعاءات أدوات واسعة النطاق بثبات، مما يجعله مناسبًا لبيئات الإنتاج التي تتطلب أداءً عاليًا من حيث التأخير والتوازي."
|
|
307
|
+
},
|
|
302
308
|
"QwQ-32B-Preview": {
|
|
303
309
|
"description": "QwQ-32B-Preview هو نموذج معالجة اللغة الطبيعية المبتكر، قادر على معالجة مهام توليد الحوار وفهم السياق بشكل فعال."
|
|
304
310
|
},
|
|
@@ -1052,6 +1058,9 @@
|
|
|
1052
1058
|
"deepseek-coder-v2:236b": {
|
|
1053
1059
|
"description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo."
|
|
1054
1060
|
},
|
|
1061
|
+
"deepseek-ocr": {
|
|
1062
|
+
"description": "DeepSeek-OCR هو نموذج رؤية لغوية طورته DeepSeek AI، يركز على التعرف البصري على الأحرف (OCR) و\"الضغط البصري السياقي\". يهدف هذا النموذج إلى استكشاف حدود ضغط المعلومات السياقية من الصور، ويتميز بقدرته على معالجة المستندات بكفاءة وتحويلها إلى تنسيقات نصية منظمة مثل Markdown. يمكنه التعرف بدقة على النصوص داخل الصور، مما يجعله مثاليًا لتطبيقات رقمنة المستندات، واستخراج النصوص، والمعالجة المنظمة."
|
|
1063
|
+
},
|
|
1055
1064
|
"deepseek-r1": {
|
|
1056
1065
|
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
|
|
1057
1066
|
},
|
|
@@ -1268,6 +1277,9 @@
|
|
|
1268
1277
|
"doubao-seed-1.6-vision": {
|
|
1269
1278
|
"description": "نموذج التفكير العميق البصري Doubao-Seed-1.6-vision، يظهر قدرة فهم واستدلال متعددة الوسائط عامة أقوى في سيناريوهات التعليم، مراجعة الصور، التفتيش والأمن، والبحث والإجابة بالذكاء الاصطناعي. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 64k رمزًا."
|
|
1270
1279
|
},
|
|
1280
|
+
"doubao-seed-code": {
|
|
1281
|
+
"description": "تم تحسين Doubao-Seed-Code بشكل عميق لمهام البرمجة القائمة على الوكلاء، ويدعم الوسائط المتعددة (نص/صورة/فيديو) وسياق طويل يصل إلى 256 ألف رمز، كما أنه متوافق مع واجهة Anthropic API، مما يجعله مناسبًا للبرمجة، وفهم الرؤية، وسيناريوهات الوكلاء."
|
|
1282
|
+
},
|
|
1271
1283
|
"doubao-seededit-3-0-i2i-250628": {
|
|
1272
1284
|
"description": "نموذج توليد الصور Doubao من فريق Seed في ByteDance، يدعم إدخال النص والصورة، ويوفر تجربة توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور عبر أوامر نصية، وأبعاد الصور تتراوح بين 512 إلى 1536 بكسل."
|
|
1273
1285
|
},
|
|
@@ -1328,6 +1340,9 @@
|
|
|
1328
1340
|
"ernie-4.5-vl-28b-a3b": {
|
|
1329
1341
|
"description": "ERNIE 4.5 VL 28B A3B، نموذج متعدد الوسائط مفتوح المصدر، يدعم مهام الفهم والاستدلال بين الصور والنصوص."
|
|
1330
1342
|
},
|
|
1343
|
+
"ernie-5.0-thinking-latest": {
|
|
1344
|
+
"description": "Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي، يدعم النمذجة الموحدة للنصوص، والصور، والصوت، والفيديو، مع ترقية شاملة للقدرات، مما يجعله مناسبًا للأسئلة المعقدة، والإبداع، وسيناريوهات الذكاء الاصطناعي."
|
|
1345
|
+
},
|
|
1331
1346
|
"ernie-5.0-thinking-preview": {
|
|
1332
1347
|
"description": "Wenxin 5.0 Thinking Preview، نموذج رائد شامل متعدد الوسائط، يدعم النصوص، الصور، الصوت، والفيديو، مع قدرات متقدمة مناسبة للأسئلة المعقدة، الإبداع، والوكلاء الذكيين."
|
|
1333
1348
|
},
|
|
@@ -2198,9 +2213,6 @@
|
|
|
2198
2213
|
"kimi-latest": {
|
|
2199
2214
|
"description": "يستخدم منتج كيمي المساعد الذكي أحدث نموذج كبير من كيمي، وقد يحتوي على ميزات لم تستقر بعد. يدعم فهم الصور، وسيختار تلقائيًا نموذج 8k/32k/128k كنموذج للتسعير بناءً على طول سياق الطلب."
|
|
2200
2215
|
},
|
|
2201
|
-
"kimi-thinking-preview": {
|
|
2202
|
-
"description": "نموذج kimi-thinking-preview هو نموذج تفكير متعدد الوسائط يتمتع بقدرات استدلال متعددة الوسائط وعامة، مقدم من الجانب المظلم للقمر، يتقن الاستدلال العميق ويساعد في حل المزيد من المسائل الصعبة."
|
|
2203
|
-
},
|
|
2204
2216
|
"kuaishou/kat-coder-pro-v1": {
|
|
2205
2217
|
"description": "KAT-Coder-Pro-V1 (مجاني لفترة محدودة) يركز على فهم الشيفرة والبرمجة التلقائية، مخصص لمهام البرمجة الفعالة."
|
|
2206
2218
|
},
|
|
@@ -2246,9 +2258,6 @@
|
|
|
2246
2258
|
"llama-3.3-instruct": {
|
|
2247
2259
|
"description": "تم تحسين نموذج Llama 3.3 المعدل للتعليمات خصيصًا لسيناريوهات المحادثة، حيث تفوق على العديد من نماذج الدردشة مفتوحة المصدر الحالية في اختبارات المعايير الصناعية الشائعة."
|
|
2248
2260
|
},
|
|
2249
|
-
"llama-4-scout-17b-16e-instruct": {
|
|
2250
|
-
"description": "Llama 4 Scout: نموذج عالي الأداء من سلسلة Llama، مثالي للسيناريوهات التي تتطلب إنتاجية عالية وزمن استجابة منخفض."
|
|
2251
|
-
},
|
|
2252
2261
|
"llama3-70b-8192": {
|
|
2253
2262
|
"description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
|
|
2254
2263
|
},
|
|
@@ -2681,6 +2690,9 @@
|
|
|
2681
2690
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2682
2691
|
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
|
|
2683
2692
|
},
|
|
2693
|
+
"moonshotai/Kimi-K2-Thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking هو أحدث وأقوى نموذج تفكير مفتوح المصدر. يعزز بشكل كبير عمق الاستدلال متعدد الخطوات، ويحافظ على استقرار استخدام الأدوات خلال 200–300 استدعاء متتالٍ، وقد وضع معايير جديدة في اختبارات Humanity's Last Exam (HLE)، وBrowseComp، وغيرها من المعايير. كما يتميز K2 Thinking بأداء ممتاز في البرمجة، والرياضيات، والاستدلال المنطقي، وسيناريوهات الوكلاء. يعتمد النموذج على بنية الخبراء المختلطة (MoE) ويحتوي على حوالي 1 تيرابايت من المعلمات، ويدعم نافذة سياق تصل إلى 256 ألف رمز واستدعاء الأدوات."
|
|
2695
|
+
},
|
|
2684
2696
|
"moonshotai/kimi-k2": {
|
|
2685
2697
|
"description": "Kimi K2 هو نموذج لغة كبير مختلط الخبراء (MoE) ضخم طورته Moonshot AI، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة في كل تمرير أمامي. مُحسّن لقدرات الوكيل، بما في ذلك استخدام الأدوات المتقدمة، الاستدلال، وتركيب الكود."
|
|
2686
2698
|
},
|
|
@@ -2721,7 +2733,7 @@
|
|
|
2721
2733
|
"description": "يركز على الاستدلال المتقدم وحل المشكلات المعقدة، بما في ذلك المهام الرياضية والعلمية. مثالي للتطبيقات التي تتطلب فهمًا عميقًا للسياق وإدارة سير العمل."
|
|
2722
2734
|
},
|
|
2723
2735
|
"o1-mini": {
|
|
2724
|
-
"description": "
|
|
2736
|
+
"description": "أصغر وأسرع من o1-preview، بتكلفة أقل بنسبة 80٪، ويؤدي أداءً جيدًا في توليد الشيفرات والعمليات ذات السياق القصير."
|
|
2725
2737
|
},
|
|
2726
2738
|
"o1-preview": {
|
|
2727
2739
|
"description": "يركّز على الاستدلال المتقدّم وحل المشكلات المعقّدة، بما في ذلك المهام الرياضية والعلمية. مناسب للغاية للتطبيقات التي تتطلّب فهماً عميقاً للسياق وسير عمل مستقل."
|
|
@@ -2960,9 +2972,6 @@
|
|
|
2960
2972
|
"qwen-3-32b": {
|
|
2961
2973
|
"description": "Qwen 3 32B: نموذج من سلسلة Qwen يتميز بأداء ممتاز في المهام متعددة اللغات والبرمجة، مناسب للاستخدام الإنتاجي متوسط النطاق."
|
|
2962
2974
|
},
|
|
2963
|
-
"qwen-3-coder-480b": {
|
|
2964
|
-
"description": "Qwen 3 Coder 480B: نموذج طويل السياق مخصص لتوليد الشيفرات والمهام البرمجية المعقدة."
|
|
2965
|
-
},
|
|
2966
2975
|
"qwen-coder-plus": {
|
|
2967
2976
|
"description": "نموذج Tongyi Qianwen للبرمجة."
|
|
2968
2977
|
},
|
|
@@ -3323,6 +3332,9 @@
|
|
|
3323
3332
|
"sonar-reasoning-pro": {
|
|
3324
3333
|
"description": "منتج API جديد مدعوم من نموذج الاستدلال DeepSeek."
|
|
3325
3334
|
},
|
|
3335
|
+
"spark-x": {
|
|
3336
|
+
"description": "مواصفات X1.5: (1) إضافة وضع تفكير ديناميكي يمكن التحكم فيه عبر حقل thinking؛ (2) زيادة طول السياق: 64K للإدخال و64K للإخراج؛ (3) دعم ميزة FunctionCall."
|
|
3337
|
+
},
|
|
3326
3338
|
"stable-diffusion-3-medium": {
|
|
3327
3339
|
"description": "نموذج توليد صور نصية كبير أحدث من Stability AI. هذا الإصدار يحسن جودة الصور، فهم النصوص وتنوع الأساليب بشكل ملحوظ مقارنة بالأجيال السابقة، قادر على تفسير أوامر اللغة الطبيعية المعقدة بدقة وتوليد صور أكثر دقة وتنوعًا."
|
|
3328
3340
|
},
|
|
@@ -3524,9 +3536,6 @@
|
|
|
3524
3536
|
"x-ai/grok-code-fast-1": {
|
|
3525
3537
|
"description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI، ينتج أكواد قابلة للقراءة ومتوافقة مع متطلبات الهندسة."
|
|
3526
3538
|
},
|
|
3527
|
-
"x1": {
|
|
3528
|
-
"description": "سيتم ترقية نموذج Spark X1 بشكل أكبر، حيث ستحقق المهام العامة مثل الاستدلال، وتوليد النصوص، وفهم اللغة نتائج تتماشى مع OpenAI o1 و DeepSeek R1."
|
|
3529
|
-
},
|
|
3530
3539
|
"xai/grok-2": {
|
|
3531
3540
|
"description": "Grok 2 هو نموذج لغة متقدم بقدرات استدلال رائدة. يتميز بقدرات متقدمة في الدردشة، الترميز، والاستدلال، ويتفوق على Claude 3.5 Sonnet وGPT-4-Turbo في تصنيف LMSYS."
|
|
3532
3541
|
},
|
|
@@ -3593,6 +3602,9 @@
|
|
|
3593
3602
|
"z-ai/glm-4.6": {
|
|
3594
3603
|
"description": "GLM 4.6 هو النموذج الرائد من Z.AI، يعزز طول السياق وقدرات الترميز."
|
|
3595
3604
|
},
|
|
3605
|
+
"zai-glm-4.6": {
|
|
3606
|
+
"description": "يتميز بأداء ممتاز في مهام البرمجة والاستدلال، ويدعم التدفق واستدعاء الأدوات، مما يجعله مناسبًا للبرمجة القائمة على الوكلاء وسيناريوهات الاستدلال المعقدة."
|
|
3607
|
+
},
|
|
3596
3608
|
"zai-org/GLM-4.5": {
|
|
3597
3609
|
"description": "GLM-4.5 هو نموذج أساسي مصمم لتطبيقات الوكلاء الذكية، يستخدم بنية Mixture-of-Experts (MoE). تم تحسينه بعمق في مجالات استدعاء الأدوات، تصفح الويب، هندسة البرمجيات، وبرمجة الواجهة الأمامية، ويدعم التكامل السلس مع وكلاء الكود مثل Claude Code وRoo Code. يستخدم وضع استدلال مختلط ليتكيف مع سيناريوهات الاستدلال المعقدة والاستخدام اليومي."
|
|
3598
3610
|
},
|
package/locales/bg-BG/auth.json
CHANGED
|
@@ -54,6 +54,7 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
+
"emailExists": "Този имейл вече е регистриран. Моля, влезте директно.",
|
|
57
58
|
"emailInvalid": "Моля, въведете валиден имейл адрес",
|
|
58
59
|
"emailNotRegistered": "Този имейл все още не е регистриран",
|
|
59
60
|
"emailNotVerified": "Имейлът не е потвърден, моля първо го потвърдете",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "Паролата не може да надвишава 64 знака",
|
|
66
67
|
"passwordMinLength": "Паролата трябва да бъде поне 8 знака",
|
|
67
68
|
"passwordRequired": "Моля, въведете парола",
|
|
69
|
+
"usernameNotRegistered": "Това потребителско име не е регистрирано",
|
|
68
70
|
"usernameRequired": "Моля, въведете потребителско име"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -101,7 +103,6 @@
|
|
|
101
103
|
"continueWithZitadel": "Вход с Zitadel",
|
|
102
104
|
"emailPlaceholder": "Моля, въведете имейл адрес",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "Моля, въведете имейл адреса си, за да продължите",
|
|
105
106
|
"title": "Вход"
|
|
106
107
|
},
|
|
107
108
|
"error": "Входът не бе успешен, моля проверете имейла и паролата",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "Неуспешно изпращане на линк за нулиране на парола",
|
|
195
196
|
"resetPasswordSent": "Линк за нулиране на парола е изпратен, моля проверете имейла си",
|
|
196
197
|
"save": "Запази",
|
|
198
|
+
"setPassword": "Задаване на парола",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "Свържи акаунт",
|
|
@@ -210,7 +212,14 @@
|
|
|
210
212
|
"title": "Детайли на профила",
|
|
211
213
|
"updateAvatar": "Актуализирай аватара",
|
|
212
214
|
"updateFullName": "Актуализирай пълното име",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "Актуализиране на потребителско име",
|
|
216
|
+
"username": "Потребителско име",
|
|
217
|
+
"usernameDuplicate": "Потребителското име вече е заето",
|
|
218
|
+
"usernameInputHint": "Моля, въведете ново потребителско име",
|
|
219
|
+
"usernamePlaceholder": "Моля, въведете потребителско име, съставено от букви, цифри или долна черта",
|
|
220
|
+
"usernameRequired": "Потребителското име не може да бъде празно",
|
|
221
|
+
"usernameRule": "Потребителското име може да съдържа само букви, цифри или долна черта",
|
|
222
|
+
"usernameUpdateFailed": "Неуспешно актуализиране на потребителското име, моля, опитайте отново по-късно"
|
|
214
223
|
},
|
|
215
224
|
"signout": "Изход",
|
|
216
225
|
"signup": "Регистрация",
|
|
@@ -221,6 +221,9 @@
|
|
|
221
221
|
"MiniMax-M2": {
|
|
222
222
|
"description": "Създаден специално за ефективно програмиране и работни потоци с агенти."
|
|
223
223
|
},
|
|
224
|
+
"MiniMax-M2-Stable": {
|
|
225
|
+
"description": "Създаден специално за ефективно програмиране и работни потоци с агенти, с висока едновременна обработка и подходящ за търговска употреба."
|
|
226
|
+
},
|
|
224
227
|
"MiniMax-Text-01": {
|
|
225
228
|
"description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
|
|
226
229
|
},
|
|
@@ -299,6 +302,9 @@
|
|
|
299
302
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
300
303
|
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
|
|
301
304
|
},
|
|
305
|
+
"Pro/moonshotai/Kimi-K2-Thinking": {
|
|
306
|
+
"description": "Kimi K2 Thinking Turbo е Turbo версията на серията Kimi K2, оптимизирана за скорост на извеждане и пропускателна способност, като същевременно запазва способностите за многoстъпково разсъждение и използване на инструменти на K2 Thinking. Моделът е базиран на архитектура с хибридни експерти (MoE), с общ брой параметри около 1T, поддържа нативно 256K контекст и може стабилно да изпълнява мащабни извиквания на инструменти, подходящ за производствени среди с високи изисквания към латентност и едновременност."
|
|
307
|
+
},
|
|
302
308
|
"QwQ-32B-Preview": {
|
|
303
309
|
"description": "QwQ-32B-Preview е иновативен модел за обработка на естествен език, способен да обработва ефективно сложни задачи за генериране на диалог и разбиране на контекста."
|
|
304
310
|
},
|
|
@@ -1052,6 +1058,9 @@
|
|
|
1052
1058
|
"deepseek-coder-v2:236b": {
|
|
1053
1059
|
"description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo."
|
|
1054
1060
|
},
|
|
1061
|
+
"deepseek-ocr": {
|
|
1062
|
+
"description": "DeepSeek-OCR е визуално-езиков модел, разработен от DeepSeek AI, фокусиран върху оптично разпознаване на символи (OCR) и \"контекстово оптично компресиране\". Моделът цели да изследва границите на компресиране на контекстуална информация от изображения, като ефективно обработва документи и ги преобразува в структурирани текстови формати като Markdown. Той точно разпознава текстово съдържание в изображения, особено подходящ за дигитализация на документи, извличане на текст и структурирана обработка."
|
|
1063
|
+
},
|
|
1055
1064
|
"deepseek-r1": {
|
|
1056
1065
|
"description": "DeepSeek-R1 е модел за извеждане, управляван от подсилено обучение (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на извеждане. Той показва сравнима производителност с OpenAI-o1 в математически, кодови и извеждащи задачи и подобрява общите резултати чрез внимателно проектирани методи на обучение."
|
|
1057
1066
|
},
|
|
@@ -1268,6 +1277,9 @@
|
|
|
1268
1277
|
"doubao-seed-1.6-vision": {
|
|
1269
1278
|
"description": "Doubao-Seed-1.6-vision е визуален модел за дълбоко мислене, който демонстрира по-силни универсални мултимодални разбирания и способности за разсъждение в сценарии като образование, преглед на изображения, инспекции и сигурност, както и AI търсене и отговори. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 64k токена."
|
|
1270
1279
|
},
|
|
1280
|
+
"doubao-seed-code": {
|
|
1281
|
+
"description": "Doubao-Seed-Code е дълбоко оптимизиран за задачи в Agentic програмиране, поддържа мултимодалност (текст/изображения/видео) и 256K дълъг контекст, съвместим с Anthropic API, подходящ за програмиране, визуално разбиране и агентни сценарии."
|
|
1282
|
+
},
|
|
1271
1283
|
"doubao-seededit-3-0-i2i-250628": {
|
|
1272
1284
|
"description": "Моделът за генериране на изображения Doubao е разработен от екипа Seed на ByteDance, поддържа вход от текст и изображения, предоставя висококонтролирано и качествено генериране на изображения. Поддържа редактиране на изображения чрез текстови команди, с размери на изображението от 512 до 1536 пиксела."
|
|
1273
1285
|
},
|
|
@@ -1328,6 +1340,9 @@
|
|
|
1328
1340
|
"ernie-4.5-vl-28b-a3b": {
|
|
1329
1341
|
"description": "ERNIE 4.5 VL 28B A3B, отворен мултимодален модел, поддържащ разбиране и дедукция на изображения и текст."
|
|
1330
1342
|
},
|
|
1343
|
+
"ernie-5.0-thinking-latest": {
|
|
1344
|
+
"description": "Wenxin 5.0 Thinking е флагмански модел с нативна пълна мултимодалност, поддържащ обединено моделиране на текст, изображения, аудио и видео, с цялостно подобрени способности, подходящ за сложни въпроси и отговори, творчество и интелигентни агенти."
|
|
1345
|
+
},
|
|
1331
1346
|
"ernie-5.0-thinking-preview": {
|
|
1332
1347
|
"description": "Wenxin 5.0 Thinking Preview, флагмански модел с пълна мултимодалност, поддържащ унифицирано моделиране на текст, изображения, аудио и видео, с цялостно подобрени способности, подходящ за сложни въпроси, творчество и интелигентни агенти."
|
|
1333
1348
|
},
|
|
@@ -2198,9 +2213,6 @@
|
|
|
2198
2213
|
"kimi-latest": {
|
|
2199
2214
|
"description": "Kimi интелигентен асистент използва най-новия Kimi голям модел, който може да съдържа нестабилни функции. Поддържа разбиране на изображения и автоматично избира 8k/32k/128k модел за таксуване в зависимост от дължината на контекста на заявката."
|
|
2200
2215
|
},
|
|
2201
|
-
"kimi-thinking-preview": {
|
|
2202
|
-
"description": "Моделът kimi-thinking-preview, предоставен от „Тъмната страна на Луната“, е мултимодален мисловен модел с възможности за мултимодално и общо разсъждение, който е експерт в дълбокото разсъждение и помага за решаването на по-сложни задачи."
|
|
2203
|
-
},
|
|
2204
2216
|
"kuaishou/kat-coder-pro-v1": {
|
|
2205
2217
|
"description": "KAT-Coder-Pro-V1 (временно безплатен) е фокусиран върху разбиране на код и автоматизирано програмиране, предназначен за ефективни задачи с програмен агент."
|
|
2206
2218
|
},
|
|
@@ -2246,9 +2258,6 @@
|
|
|
2246
2258
|
"llama-3.3-instruct": {
|
|
2247
2259
|
"description": "Моделата Llama 3.3 с фина настройка за инструкции е оптимизирана за диалогови сценарии и надминава много съществуващи модели с отворен код в общи отраслови бенчмарк тестове."
|
|
2248
2260
|
},
|
|
2249
|
-
"llama-4-scout-17b-16e-instruct": {
|
|
2250
|
-
"description": "Llama 4 Scout: високопроизводителен модел от серията Llama, оптимизиран за сценарии с висока пропускателна способност и ниска латентност."
|
|
2251
|
-
},
|
|
2252
2261
|
"llama3-70b-8192": {
|
|
2253
2262
|
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
|
|
2254
2263
|
},
|
|
@@ -2681,6 +2690,9 @@
|
|
|
2681
2690
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2682
2691
|
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
|
|
2683
2692
|
},
|
|
2693
|
+
"moonshotai/Kimi-K2-Thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking е най-новият и най-мощен отворен модел за разсъждение. Той значително разширява дълбочината на многoстъпковото разсъждение и поддържа стабилна употреба на инструменти при 200–300 последователни извиквания. Поставя нови стандарти в Humanity's Last Exam (HLE), BrowseComp и други бенчмаркове. Освен това, K2 Thinking се представя отлично в програмиране, математика, логическо разсъждение и агентни сценарии. Моделът е базиран на архитектура с хибридни експерти (MoE), с около 1T параметри, поддържа 256K контекстен прозорец и извикване на инструменти."
|
|
2695
|
+
},
|
|
2684
2696
|
"moonshotai/kimi-k2": {
|
|
2685
2697
|
"description": "Kimi K2 е голям смесен експертен (MoE) езиков модел с 1 трилион общи параметри и 32 милиарда активни параметри на преден проход, разработен от Moonshot AI. Оптимизиран е за агентски способности, включително усъвършенствано използване на инструменти, разсъждения и синтез на код."
|
|
2686
2698
|
},
|
|
@@ -2721,7 +2733,7 @@
|
|
|
2721
2733
|
"description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци."
|
|
2722
2734
|
},
|
|
2723
2735
|
"o1-mini": {
|
|
2724
|
-
"description": "
|
|
2736
|
+
"description": "По-малък и по-бърз от o1-preview, с 80% по-ниска цена, показва добри резултати при генериране на код и операции с малък контекст."
|
|
2725
2737
|
},
|
|
2726
2738
|
"o1-preview": {
|
|
2727
2739
|
"description": "Фокусиран върху усъвършенствано разсъждение и решаване на сложни проблеми, включително математически и научни задачи. Отлично подходящ за приложения, които изискват дълбоко разбиране на контекста и автономни работни процеси."
|
|
@@ -2960,9 +2972,6 @@
|
|
|
2960
2972
|
"qwen-3-32b": {
|
|
2961
2973
|
"description": "Qwen 3 32B: модел от серията Qwen с отлична производителност при многоезични и програмни задачи, подходящ за средномащабна продукционна употреба."
|
|
2962
2974
|
},
|
|
2963
|
-
"qwen-3-coder-480b": {
|
|
2964
|
-
"description": "Qwen 3 Coder 480B: модел с дълъг контекст, предназначен за генериране на код и сложни програмни задачи."
|
|
2965
|
-
},
|
|
2966
2975
|
"qwen-coder-plus": {
|
|
2967
2976
|
"description": "Tongyi Qianwen модел за кодиране."
|
|
2968
2977
|
},
|
|
@@ -3323,6 +3332,9 @@
|
|
|
3323
3332
|
"sonar-reasoning-pro": {
|
|
3324
3333
|
"description": "Нов API продукт, поддържан от модела за разсъждение DeepSeek."
|
|
3325
3334
|
},
|
|
3335
|
+
"spark-x": {
|
|
3336
|
+
"description": "Представяне на X1.5 възможности: (1) Добавен динамичен режим на мислене, контролиран чрез полето thinking; (2) Увеличена дължина на контекста: вход и изход по 64K; (3) Поддържа функцията FunctionCall."
|
|
3337
|
+
},
|
|
3326
3338
|
"stable-diffusion-3-medium": {
|
|
3327
3339
|
"description": "Най-новият голям модел за генериране на изображения от текст, пуснат от Stability AI. Тази версия запазва предимствата на предишните поколения и значително подобрява качеството на изображенията, разбирането на текст и разнообразието на стилове, позволявайки по-точно интерпретиране на сложни естествени езикови подсказки и генериране на по-прецизни и разнообразни изображения."
|
|
3328
3340
|
},
|
|
@@ -3524,9 +3536,6 @@
|
|
|
3524
3536
|
"x-ai/grok-code-fast-1": {
|
|
3525
3537
|
"description": "Grok Code Fast 1 е бърз кодов модел на xAI, предлагащ четим и инженерно пригоден изход."
|
|
3526
3538
|
},
|
|
3527
|
-
"x1": {
|
|
3528
|
-
"description": "Моделът Spark X1 ще бъде допълнително обновен, като на базата на водещите в страната резултати в математически задачи, ще постигне ефекти в общи задачи като разсъждение, генериране на текст и разбиране на език, сравними с OpenAI o1 и DeepSeek R1."
|
|
3529
|
-
},
|
|
3530
3539
|
"xai/grok-2": {
|
|
3531
3540
|
"description": "Grok 2 е водещ езиков модел с най-съвременни способности за разсъждение. Той има напреднали умения в чат, кодиране и разсъждение, превъзхождайки Claude 3.5 Sonnet и GPT-4-Turbo в класацията LMSYS."
|
|
3532
3541
|
},
|
|
@@ -3593,6 +3602,9 @@
|
|
|
3593
3602
|
"z-ai/glm-4.6": {
|
|
3594
3603
|
"description": "GLM 4.6 е флагманският модел на Z.AI, с разширен контекст и подобрени кодиращи способности."
|
|
3595
3604
|
},
|
|
3605
|
+
"zai-glm-4.6": {
|
|
3606
|
+
"description": "Отлично представяне при задачи за програмиране и разсъждение, поддържа стрийминг и извикване на инструменти, подходящ за agentic програмиране и сложни логически сценарии."
|
|
3607
|
+
},
|
|
3596
3608
|
"zai-org/GLM-4.5": {
|
|
3597
3609
|
"description": "GLM-4.5 е базов модел, специално създаден за интелигентни агенти, използващ архитектура с микс от експерти (Mixture-of-Experts). Той е дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и поддържа безпроблемна интеграция с кодови агенти като Claude Code и Roo Code. GLM-4.5 използва смесен режим на разсъждение, подходящ за сложни и ежедневни приложения."
|
|
3598
3610
|
},
|
package/locales/de-DE/auth.json
CHANGED
|
@@ -54,6 +54,7 @@
|
|
|
54
54
|
},
|
|
55
55
|
"betterAuth": {
|
|
56
56
|
"errors": {
|
|
57
|
+
"emailExists": "Diese E-Mail-Adresse ist bereits registriert. Bitte melden Sie sich direkt an.",
|
|
57
58
|
"emailInvalid": "Bitte geben Sie eine gültige E-Mail-Adresse ein",
|
|
58
59
|
"emailNotRegistered": "Diese E-Mail-Adresse ist noch nicht registriert",
|
|
59
60
|
"emailNotVerified": "E-Mail-Adresse nicht verifiziert, bitte zuerst verifizieren",
|
|
@@ -65,6 +66,7 @@
|
|
|
65
66
|
"passwordMaxLength": "Das Passwort darf maximal 64 Zeichen lang sein",
|
|
66
67
|
"passwordMinLength": "Das Passwort muss mindestens 8 Zeichen lang sein",
|
|
67
68
|
"passwordRequired": "Bitte geben Sie ein Passwort ein",
|
|
69
|
+
"usernameNotRegistered": "Dieser Benutzername ist noch nicht registriert",
|
|
68
70
|
"usernameRequired": "Bitte geben Sie einen Benutzernamen ein"
|
|
69
71
|
},
|
|
70
72
|
"resetPassword": {
|
|
@@ -101,7 +103,6 @@
|
|
|
101
103
|
"continueWithZitadel": "Mit Zitadel anmelden",
|
|
102
104
|
"emailPlaceholder": "Bitte geben Sie Ihre E-Mail-Adresse ein",
|
|
103
105
|
"emailStep": {
|
|
104
|
-
"subtitle": "Bitte geben Sie Ihre E-Mail-Adresse ein, um fortzufahren",
|
|
105
106
|
"title": "Anmelden"
|
|
106
107
|
},
|
|
107
108
|
"error": "Anmeldung fehlgeschlagen, bitte überprüfen Sie E-Mail und Passwort",
|
|
@@ -194,6 +195,7 @@
|
|
|
194
195
|
"resetPasswordError": "Link zum Zurücksetzen des Passworts konnte nicht gesendet werden",
|
|
195
196
|
"resetPasswordSent": "Link zum Zurücksetzen des Passworts wurde gesendet, bitte überprüfen Sie Ihre E-Mail",
|
|
196
197
|
"save": "Speichern",
|
|
198
|
+
"setPassword": "Passwort festlegen",
|
|
197
199
|
"sso": {
|
|
198
200
|
"link": {
|
|
199
201
|
"button": "Konto verbinden",
|
|
@@ -210,7 +212,14 @@
|
|
|
210
212
|
"title": "Profilinformationen",
|
|
211
213
|
"updateAvatar": "Avatar aktualisieren",
|
|
212
214
|
"updateFullName": "Vollständigen Namen aktualisieren",
|
|
213
|
-
"
|
|
215
|
+
"updateUsername": "Benutzernamen aktualisieren",
|
|
216
|
+
"username": "Benutzername",
|
|
217
|
+
"usernameDuplicate": "Benutzername ist bereits vergeben",
|
|
218
|
+
"usernameInputHint": "Bitte neuen Benutzernamen eingeben",
|
|
219
|
+
"usernamePlaceholder": "Bitte einen Benutzernamen aus Buchstaben, Zahlen oder Unterstrichen eingeben",
|
|
220
|
+
"usernameRequired": "Benutzername darf nicht leer sein",
|
|
221
|
+
"usernameRule": "Benutzername darf nur Buchstaben, Zahlen oder Unterstriche enthalten",
|
|
222
|
+
"usernameUpdateFailed": "Aktualisierung des Benutzernamens fehlgeschlagen, bitte später erneut versuchen"
|
|
214
223
|
},
|
|
215
224
|
"signout": "Ausloggen",
|
|
216
225
|
"signup": "Registrieren",
|