@lobehub/lobehub 2.0.0-next.157 → 2.0.0-next.159

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (67) hide show
  1. package/.nvmrc +1 -1
  2. package/CHANGELOG.md +50 -0
  3. package/changelog/v1.json +18 -0
  4. package/docs/development/database-schema.dbml +7 -0
  5. package/locales/ar/auth.json +11 -2
  6. package/locales/ar/models.json +25 -13
  7. package/locales/bg-BG/auth.json +11 -2
  8. package/locales/bg-BG/models.json +25 -13
  9. package/locales/de-DE/auth.json +11 -2
  10. package/locales/de-DE/models.json +25 -13
  11. package/locales/en-US/auth.json +18 -9
  12. package/locales/en-US/models.json +25 -13
  13. package/locales/es-ES/auth.json +11 -2
  14. package/locales/es-ES/models.json +25 -13
  15. package/locales/fa-IR/auth.json +11 -2
  16. package/locales/fa-IR/models.json +25 -13
  17. package/locales/fr-FR/auth.json +11 -2
  18. package/locales/fr-FR/models.json +25 -13
  19. package/locales/it-IT/auth.json +11 -2
  20. package/locales/it-IT/models.json +25 -13
  21. package/locales/ja-JP/auth.json +11 -2
  22. package/locales/ja-JP/models.json +25 -13
  23. package/locales/ko-KR/auth.json +11 -2
  24. package/locales/ko-KR/models.json +25 -13
  25. package/locales/nl-NL/auth.json +11 -2
  26. package/locales/nl-NL/models.json +25 -13
  27. package/locales/pl-PL/auth.json +11 -2
  28. package/locales/pl-PL/models.json +25 -13
  29. package/locales/pt-BR/auth.json +11 -2
  30. package/locales/pt-BR/models.json +25 -13
  31. package/locales/ru-RU/auth.json +11 -2
  32. package/locales/ru-RU/models.json +25 -13
  33. package/locales/tr-TR/auth.json +11 -2
  34. package/locales/tr-TR/models.json +25 -13
  35. package/locales/vi-VN/auth.json +11 -2
  36. package/locales/vi-VN/models.json +25 -13
  37. package/locales/zh-CN/auth.json +18 -9
  38. package/locales/zh-CN/models.json +25 -13
  39. package/locales/zh-TW/auth.json +11 -2
  40. package/locales/zh-TW/models.json +25 -13
  41. package/next.config.ts +1 -1
  42. package/package.json +2 -1
  43. package/packages/database/migrations/0058_add_source_into_user_plugins.sql +1 -0
  44. package/packages/database/migrations/0059_add_normalized_email_indexes.sql +4 -0
  45. package/packages/database/migrations/meta/0058_snapshot.json +8432 -0
  46. package/packages/database/migrations/meta/0059_snapshot.json +8474 -0
  47. package/packages/database/migrations/meta/_journal.json +14 -0
  48. package/packages/database/src/core/migrations.json +31 -32
  49. package/packages/database/src/models/user.ts +13 -1
  50. package/packages/database/src/schemas/user.ts +39 -31
  51. package/src/app/(backend)/api/auth/check-user/route.ts +0 -6
  52. package/src/app/(backend)/api/auth/resolve-username/route.ts +52 -0
  53. package/src/app/[variants]/(auth)/signin/page.tsx +102 -14
  54. package/src/app/[variants]/(auth)/signup/[[...signup]]/BetterAuthSignUpForm.tsx +15 -0
  55. package/src/app/[variants]/(main)/profile/(home)/Client.tsx +152 -12
  56. package/src/app/[variants]/(main)/profile/(home)/features/SSOProvidersList/index.tsx +4 -9
  57. package/src/app/[variants]/desktopRouter.config.tsx +7 -1
  58. package/src/app/[variants]/mobileRouter.config.tsx +7 -1
  59. package/src/auth.ts +2 -0
  60. package/src/locales/default/auth.ts +17 -9
  61. package/src/server/routers/lambda/user.ts +18 -0
  62. package/src/services/user/index.ts +4 -0
  63. package/src/store/user/slices/auth/action.test.ts +2 -2
  64. package/src/store/user/slices/auth/action.ts +8 -8
  65. package/src/store/user/slices/auth/initialState.ts +1 -1
  66. package/src/store/user/slices/auth/selectors.ts +1 -1
  67. package/src/store/user/slices/common/action.ts +6 -0
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "Verimli kodlama ve Agent iş akışları için özel olarak tasarlandı."
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "Yüksek verimli kodlama ve Agent iş akışları için özel olarak tasarlanmıştır, daha yüksek eşzamanlılık ve ticari kullanım için uygundur."
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo, Kimi K2 serisinin Turbo versiyonudur. Akıl yürütme hızı ve işlem hacmi açısından optimize edilmiştir ve aynı zamanda K2 Thinking’in çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korur. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, doğal olarak 256K bağlamı destekler ve büyük ölçekli araç çağrılarını istikrarlı bir şekilde gerçekleştirebilir. Gecikme ve eşzamanlılık gereksinimlerinin yüksek olduğu üretim senaryoları için uygundur."
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR, DeepSeek AI tarafından geliştirilen bir görsel-dil modelidir. Optik karakter tanıma (OCR) ve \"bağlamsal optik sıkıştırma\" üzerine odaklanır. Bu model, görsellerden bağlam bilgisini sıkıştırma sınırlarını keşfetmeyi amaçlar, belgeleri verimli bir şekilde işleyerek Markdown gibi yapılandırılmış metin formatlarına dönüştürebilir. Görsellerdeki metinleri doğru şekilde tanıyabilir ve özellikle belge dijitalleştirme, metin çıkarımı ve yapılandırılmış veri işleme gibi uygulamalar için uygundur."
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision görsel derin düşünme modeli, eğitim, görüntü denetimi, denetim ve güvenlik ile AI arama ve soru-cevap gibi senaryolarda daha güçlü genel çok modlu anlama ve akıl yürütme yetenekleri sergiler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token olabilir."
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code, Agentic programlama görevleri için derinlemesine optimize edilmiştir. Çok modlu (metin/görsel/video) desteği ve 256K uzun bağlam kapasitesi sunar, Anthropic API ile uyumludur. Programlama, görsel anlama ve Agent senaryoları için uygundur."
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "Doubao resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin komutlarıyla görüntü düzenlemeyi destekler ve oluşturulan görüntülerin kenar uzunluğu 512 ile 1536 piksel arasındadır."
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B, çok modlu açık kaynak modeli, görsel-metin anlama ve çıkarım görevlerini destekler."
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "Wenxin 5.0 Thinking, yerel tam modlu amiral gemisi modelidir. Metin, görsel, ses ve video gibi tüm modaliteleri tek bir modelde birleştirir. Kapsamlı yetenek yükseltmeleriyle karmaşık soru-cevap, içerik üretimi ve akıllı ajan senaryoları için uygundur."
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "Wenxin 5.0 Thinking Önizleme Sürümü, yerel tam modlu amiral gemisi modeli, metin, görsel, ses ve video için birleşik modelleme desteği sunar, karmaşık soru-cevap, yaratım ve akıllı ajan senaryoları için uygundur."
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "Kimi akıllı asistan ürünü, en son Kimi büyük modelini kullanır ve henüz kararlı olmayan özellikler içerebilir. Görüntü anlayışını desteklerken, isteğin bağlam uzunluğuna göre 8k/32k/128k modelini faturalama modeli olarak otomatik olarak seçecektir."
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "kimi-thinking-preview modeli, Ay'ın karanlık yüzü tarafından sunulan çok modlu akıl yürütme ve genel akıl yürütme yeteneklerine sahip çok modlu düşünme modelidir; derin akıl yürütmede uzmandır ve daha zor sorunların çözümüne yardımcı olur."
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1 (sınırlı süreli ücretsiz), kod anlama ve otomatik programlama üzerine odaklanır; verimli programlama ajan görevleri için uygundur."
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "Llama 3.3 komut ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout: Yüksek performanslı Llama serisi modeli; yüksek işlem hacmi ve düşük gecikme gerektiren senaryolar için idealdir."
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking, en yeni ve en güçlü açık kaynak düşünme modelidir. Çok adımlı akıl yürütme derinliğini büyük ölçüde artırarak ve 200–300 ardışık araç çağrısı sırasında istikrarlı araç kullanımı sağlayarak Humanity's Last Exam (HLE), BrowseComp ve diğer kıyaslamalarda yeni standartlar belirlemiştir. Ayrıca programlama, matematik, mantıksal akıl yürütme ve Agent senaryolarında üstün performans sergiler. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, 256K bağlam penceresini destekler ve araç çağrılarını destekler."
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
2736
+ "description": "o1-preview modeline göre daha küçük ve daha hızlıdır, maliyeti %80 daha düşüktür. Kod üretimi ve kısa bağlam işlemlerinde iyi performans gösterir."
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "İleri düzey muhakeme ve matematik ile fen görevleri dahil olmak üzere karmaşık sorunların çözümüne odaklanır. Derin bağlam anlayışı ve özerk iş akışları gerektiren uygulamalar için son derece uygundur."
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B: Qwen serisi, çok dilli ve kodlama görevlerinde üstün performans gösterir; orta ölçekli üretim kullanımı için uygundur."
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B: Kod üretimi ve karmaşık programlama görevleri için tasarlanmış uzun bağlamlı bir modeldir."
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "Tongyi Qianwen kodlama modeli."
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "DeepSeek'in akıl yürütme modeli tarafından desteklenen yeni API ürünü."
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "X1.5 Özellikleri: (1) Düşünme modunu dinamik olarak ayarlama özelliği eklendi, thinking alanı ile kontrol edilir; (2) Bağlam uzunluğu artırıldı: giriş ve çıkış için 64K; (3) FunctionCall özelliği desteklenmektedir."
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "Stability AI tarafından geliştirilen en yeni metinden görüntü oluşturma büyük modelidir. Önceki sürümlerin avantajlarını koruyarak, görüntü kalitesi, metin anlama ve stil çeşitliliği alanlarında önemli iyileştirmeler sunar. Karmaşık doğal dil istemlerini daha doğru yorumlayabilir ve daha kesin, çeşitli görüntüler oluşturabilir."
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1, xAI'nin hızlı kodlama modelidir; okunabilirlik ve mühendislik uyumluluğu yüksek çıktılar üretir."
3526
3538
  },
3527
- "x1": {
3528
- "description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2, en ileri çıkarım yeteneklerine sahip öncü bir dil modelidir. Sohbet, kodlama ve çıkarımda gelişmiş yetenekler sunar ve LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4-Turbo'nun önündedir."
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6, Z.AI'nin amiral gemisi modelidir; bağlam uzunluğunu ve kodlama yeteneklerini genişletmiştir."
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "Programlama ve akıl yürütme görevlerinde üstün performans gösterir, akışlı çıktı ve araç çağrısını destekler. Agentic kodlama ve karmaşık akıl yürütme senaryoları için uygundur."
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
3598
3610
  },
@@ -54,6 +54,7 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
+ "emailExists": "Email này đã được đăng ký, vui lòng đăng nhập trực tiếp",
57
58
  "emailInvalid": "Vui lòng nhập địa chỉ email hợp lệ",
58
59
  "emailNotRegistered": "Email này chưa được đăng ký",
59
60
  "emailNotVerified": "Email chưa được xác minh, vui lòng xác minh trước",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "Mật khẩu không được vượt quá 64 ký tự",
66
67
  "passwordMinLength": "Mật khẩu phải có ít nhất 8 ký tự",
67
68
  "passwordRequired": "Vui lòng nhập mật khẩu",
69
+ "usernameNotRegistered": "Tên người dùng này chưa được đăng ký",
68
70
  "usernameRequired": "Vui lòng nhập tên người dùng"
69
71
  },
70
72
  "resetPassword": {
@@ -101,7 +103,6 @@
101
103
  "continueWithZitadel": "Đăng nhập bằng Zitadel",
102
104
  "emailPlaceholder": "Vui lòng nhập địa chỉ email",
103
105
  "emailStep": {
104
- "subtitle": "Vui lòng nhập địa chỉ email của bạn để tiếp tục",
105
106
  "title": "Đăng nhập"
106
107
  },
107
108
  "error": "Đăng nhập thất bại, vui lòng kiểm tra email và mật khẩu",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "Gửi liên kết đặt lại mật khẩu thất bại",
195
196
  "resetPasswordSent": "Liên kết đặt lại mật khẩu đã được gửi, vui lòng kiểm tra email",
196
197
  "save": "Lưu",
198
+ "setPassword": "Đặt mật khẩu",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "Kết nối tài khoản",
@@ -210,7 +212,14 @@
210
212
  "title": "Chi tiết hồ sơ cá nhân",
211
213
  "updateAvatar": "Cập nhật ảnh đại diện",
212
214
  "updateFullName": "Cập nhật họ và tên",
213
- "username": "Tên người dùng"
215
+ "updateUsername": "Cập nhật tên người dùng",
216
+ "username": "Tên người dùng",
217
+ "usernameDuplicate": "Tên người dùng đã được sử dụng",
218
+ "usernameInputHint": "Vui lòng nhập tên người dùng mới",
219
+ "usernamePlaceholder": "Vui lòng nhập tên người dùng gồm chữ cái, số hoặc dấu gạch dưới",
220
+ "usernameRequired": "Tên người dùng không được để trống",
221
+ "usernameRule": "Tên người dùng chỉ được chứa chữ cái, số hoặc dấu gạch dưới",
222
+ "usernameUpdateFailed": "Cập nhật tên người dùng thất bại, vui lòng thử lại sau"
214
223
  },
215
224
  "signout": "Đăng xuất",
216
225
  "signup": "Đăng ký",
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "Được thiết kế đặc biệt cho lập trình hiệu quả và quy trình làm việc của Agent"
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "Được thiết kế đặc biệt cho mã hóa hiệu quả và quy trình làm việc của Agent, hỗ trợ đồng thời cao hơn, phù hợp cho mục đích thương mại."
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo là phiên bản Turbo của dòng Kimi K2, được tối ưu hóa về tốc độ suy luận và thông lượng, đồng thời vẫn giữ được khả năng suy luận nhiều bước và gọi công cụ của K2 Thinking. Mô hình này dựa trên kiến trúc chuyên gia hỗn hợp (MoE), với tổng số tham số khoảng 1 nghìn tỷ, hỗ trợ ngữ cảnh lên đến 256K và có thể thực hiện gọi công cụ quy mô lớn một cách ổn định, phù hợp với các tình huống sản xuất yêu cầu độ trễ thấp và khả năng xử lý đồng thời cao."
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo."
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR là một mô hình ngôn ngữ thị giác do DeepSeek AI phát triển, tập trung vào nhận dạng ký tự quang học (OCR) và 'nén quang học theo ngữ cảnh'. Mô hình này nhằm khám phá giới hạn của việc nén thông tin ngữ cảnh từ hình ảnh, có khả năng xử lý tài liệu hiệu quả và chuyển đổi chúng thành các định dạng văn bản có cấu trúc như Markdown. Nó có thể nhận diện chính xác nội dung văn bản trong hình ảnh, đặc biệt phù hợp với các ứng dụng như số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc."
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision là mô hình suy nghĩ sâu về thị giác, thể hiện khả năng hiểu và suy luận đa phương thức tổng quát mạnh mẽ hơn trong các kịch bản như giáo dục, kiểm duyệt hình ảnh, kiểm tra và an ninh, cũng như tìm kiếm và hỏi đáp AI. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa lên đến 64k token."
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code được tối ưu hóa sâu cho các tác vụ lập trình theo hướng Agentic, hỗ trợ đa phương tiện (văn bản/hình ảnh/video) và ngữ cảnh dài 256k, tương thích với API của Anthropic, phù hợp với các tình huống lập trình, hiểu thị giác và Agent."
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "Mô hình tạo ảnh Doubao do đội Seed của ByteDance phát triển, hỗ trợ đầu vào văn bản và hình ảnh, cung cấp trải nghiệm tạo ảnh chất lượng cao và kiểm soát tốt. Hỗ trợ chỉnh sửa hình ảnh qua chỉ dẫn văn bản, kích thước ảnh tạo ra từ 512 đến 1536 pixel."
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B, mô hình đa phương thức mã nguồn mở, hỗ trợ các nhiệm vụ hiểu và suy luận hình ảnh-văn bản."
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "Wenxin 5.0 Thinking là mô hình hàng đầu hỗ trợ toàn bộ các chế độ đầu vào, hỗ trợ mô hình hóa thống nhất văn bản, hình ảnh, âm thanh và video, với năng lực tổng thể được nâng cấp toàn diện, phù hợp với các tình huống hỏi đáp phức tạp, sáng tạo và ứng dụng Agent."
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "Wenxin 5.0 Thinking Preview, mô hình hàng đầu toàn phương thức nguyên bản, hỗ trợ mô hình hóa thống nhất văn bản, hình ảnh, âm thanh và video, nâng cấp toàn diện năng lực tổng hợp, phù hợp với hỏi đáp phức tạp, sáng tạo và tác tử thông minh."
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "Sản phẩm trợ lý thông minh Kimi sử dụng mô hình lớn Kimi mới nhất, có thể chứa các tính năng chưa ổn định. Hỗ trợ hiểu hình ảnh, đồng thời tự động chọn mô hình 8k/32k/128k làm mô hình tính phí dựa trên độ dài ngữ cảnh yêu cầu."
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "Mô hình kimi-thinking-preview do Moon's Dark Side cung cấp, có khả năng suy luận đa phương thức và suy luận tổng quát, nổi bật với khả năng suy luận sâu, giúp giải quyết nhiều vấn đề khó khăn hơn."
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1 (miễn phí trong thời gian giới hạn) tập trung vào hiểu mã và lập trình tự động, dùng cho các tác vụ lập trình hiệu quả."
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "Mô hình Llama 3.3 được tối ưu hóa cho các tình huống đối thoại, và đã vượt qua nhiều mô hình trò chuyện nguồn mở hiện có trong các bài kiểm tra chuẩn ngành phổ biến."
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout: Mô hình hiệu suất cao thuộc dòng Llama, lý tưởng cho các tình huống yêu cầu thông lượng cao và độ trễ thấp."
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao."
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking là mô hình suy nghĩ mã nguồn mở mới nhất và mạnh mẽ nhất. Nó mở rộng đáng kể độ sâu suy luận nhiều bước và duy trì khả năng sử dụng công cụ ổn định trong 200–300 lần gọi liên tiếp, thiết lập tiêu chuẩn mới trong các bài kiểm tra như Humanity's Last Exam (HLE), BrowseComp và các benchmark khác. Đồng thời, K2 Thinking thể hiện xuất sắc trong lập trình, toán học, suy luận logic và các tình huống Agent. Mô hình này dựa trên kiến trúc chuyên gia hỗn hợp (MoE), với tổng số tham số khoảng 1 nghìn tỷ, hỗ trợ cửa sổ ngữ cảnh 256K và gọi công cụ."
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2 là mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) quy mô lớn do Moonshot AI phát triển, với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt mỗi lần truyền tiến. Nó được tối ưu cho khả năng đại lý, bao gồm sử dụng công cụ nâng cao, suy luận và tổng hợp mã."
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện."
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini một mô hình suy diễn nhanh chóng tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
2736
+ "description": "Nhỏ hơn nhanh hơn o1-preview, tiết kiệm chi phí đến 80%, thể hiện tốt trong việc tạo xử ngữ cảnh nhỏ."
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "Tập trung vào suy luận nâng cao và giải quyết các vấn đề phức tạp, bao gồm các bài toán và nhiệm vụ khoa học. Rất phù hợp cho những ứng dụng cần khả năng hiểu biết ngữ cảnh sâu sắc và quy trình làm việc tự chủ."
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B: Mô hình dòng Qwen có hiệu suất tốt trong các nhiệm vụ đa ngôn ngữ và lập trình, thích hợp cho các ứng dụng sản xuất quy mô trung bình."
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B: Mô hình ngữ cảnh dài dành cho sinh mã và các nhiệm vụ lập trình phức tạp."
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "Mô hình mã hóa Tongyi Qianwen."
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "Sản phẩm API mới được hỗ trợ bởi mô hình suy diễn DeepSeek."
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "Giới thiệu khả năng của X1.5: (1) Thêm chế độ suy nghĩ điều chỉnh động, điều khiển qua trường thinking; (2) Tăng độ dài ngữ cảnh: đầu vào và đầu ra đều 64K; (3) Hỗ trợ chức năng FunctionCall."
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "Mô hình tạo hình ảnh từ văn bản mới nhất do Stability AI phát hành. Phiên bản này kế thừa ưu điểm của thế hệ trước, cải tiến đáng kể về chất lượng hình ảnh, hiểu văn bản và đa dạng phong cách, có thể giải thích chính xác các gợi ý ngôn ngữ tự nhiên phức tạp và tạo ra hình ảnh chính xác, đa dạng hơn."
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1 là mô hình mã nhanh của xAI, đầu ra dễ đọc và phù hợp với kỹ thuật phần mềm."
3526
3538
  },
3527
- "x1": {
3528
- "description": "Mô hình Spark X1 sẽ được nâng cấp thêm, trên nền tảng dẫn đầu trong các nhiệm vụ toán học trong nước, đạt được hiệu quả trong các nhiệm vụ chung như suy luận, tạo văn bản, hiểu ngôn ngữ tương đương với OpenAI o1 và DeepSeek R1."
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2 là mô hình ngôn ngữ tiên tiến với khả năng suy luận hàng đầu. Nó có năng lực vượt trội trong trò chuyện, mã hóa và suy luận, đứng trên Claude 3.5 Sonnet và GPT-4-Turbo trên bảng xếp hạng LMSYS."
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6 là mô hình hàng đầu của Z.AI, mở rộng độ dài ngữ cảnh và khả năng lập trình."
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "Thể hiện xuất sắc trong các tác vụ lập trình và suy luận, hỗ trợ truyền dữ liệu theo luồng và gọi công cụ, phù hợp với lập trình Agentic và các tình huống suy luận phức tạp."
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5 là mô hình nền tảng dành cho ứng dụng tác nhân thông minh, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture-of-Experts). Được tối ưu sâu trong các lĩnh vực gọi công cụ, duyệt web, kỹ thuật phần mềm và lập trình front-end, hỗ trợ tích hợp liền mạch vào các tác nhân mã như Claude Code, Roo Code. GLM-4.5 sử dụng chế độ suy luận hỗn hợp, thích ứng với nhiều kịch bản ứng dụng như suy luận phức tạp và sử dụng hàng ngày."
3598
3610
  },
@@ -54,10 +54,11 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
- "emailInvalid": "请输入有效的邮箱地址",
58
- "emailNotRegistered": "该邮箱尚未注册",
57
+ "emailExists": "该邮箱已注册,请直接登录",
58
+ "emailInvalid": "请输入有效的邮箱地址或用户名",
59
+ "emailNotRegistered": "该邮箱或用户名尚未注册",
59
60
  "emailNotVerified": "邮箱尚未验证,请先验证邮箱",
60
- "emailRequired": "请输入邮箱地址",
61
+ "emailRequired": "请输入邮箱或用户名",
61
62
  "firstNameRequired": "请输入名字",
62
63
  "lastNameRequired": "请输入姓氏",
63
64
  "loginFailed": "登录失败,请检查邮箱和密码",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "密码最多不超过 64 个字符",
66
67
  "passwordMinLength": "密码至少需要 8 个字符",
67
68
  "passwordRequired": "请输入密码",
69
+ "usernameNotRegistered": "该用户名尚未注册",
68
70
  "usernameRequired": "请输入用户名"
69
71
  },
70
72
  "resetPassword": {
@@ -99,9 +101,8 @@
99
101
  "continueWithOkta": "使用 Okta 登录",
100
102
  "continueWithWechat": "使用微信登录",
101
103
  "continueWithZitadel": "使用 Zitadel 登录",
102
- "emailPlaceholder": "请输入邮箱地址",
104
+ "emailPlaceholder": "请输入邮箱或用户名",
103
105
  "emailStep": {
104
- "subtitle": "请输入您的邮箱地址以继续",
105
106
  "title": "登录"
106
107
  },
107
108
  "error": "登录失败,请检查邮箱和密码",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "发送密码重置链接失败",
195
196
  "resetPasswordSent": "密码重置链接已发送,请检查邮箱",
196
197
  "save": "保存",
198
+ "setPassword": "设置密码",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "连接帐户",
@@ -202,15 +204,22 @@
202
204
  "loading": "正在加载已绑定的第三方账户",
203
205
  "providers": "连接的帐户",
204
206
  "unlink": {
205
- "description": "解绑后,您将无法使用 {{provider}} 账户\"{{providerAccountId}}\"登录。如果您需要重新绑定 {{provider}} 账户到当前账户,请确保 {{provider}} 账户的邮件地址为 {{email}} ,我们会在登陆时为你自动绑定到当前登录账户。",
206
- "forbidden": "您至少需要保留一个第三方账户绑定。",
207
- "title": "是否解绑该第三方账户 {{provider}} "
207
+ "description": "解绑后再次使用 {{provider}} 登录需要重新授权或绑定。",
208
+ "forbidden": "您至少需要保留一个登录方式。",
209
+ "title": "确认解绑 {{provider}} 账户?"
208
210
  }
209
211
  },
210
212
  "title": "个人资料详情",
211
213
  "updateAvatar": "更新头像",
212
214
  "updateFullName": "更新全名",
213
- "username": "用户名"
215
+ "updateUsername": "更新用户名",
216
+ "username": "用户名",
217
+ "usernameDuplicate": "用户名已被占用",
218
+ "usernameInputHint": "请输入新的用户名",
219
+ "usernamePlaceholder": "请输入由字母、数字或下划线组成的用户名",
220
+ "usernameRequired": "用户名不能为空",
221
+ "usernameRule": "用户名仅支持字母、数字或下划线",
222
+ "usernameUpdateFailed": "更新用户名失败,请稍后重试"
214
223
  },
215
224
  "signout": "退出登录",
216
225
  "signup": "注册",
@@ -221,6 +221,9 @@
221
221
  "MiniMax-M2": {
222
222
  "description": "专为高效编码与Agent工作流而生"
223
223
  },
224
+ "MiniMax-M2-Stable": {
225
+ "description": "专为高效编码与Agent工作流而生,更高并发,商业使用。"
226
+ },
224
227
  "MiniMax-Text-01": {
225
228
  "description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
226
229
  },
@@ -299,6 +302,9 @@
299
302
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
303
  "description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家(MoE)语言模型,拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
301
304
  },
305
+ "Pro/moonshotai/Kimi-K2-Thinking": {
306
+ "description": "Kimi K2 Thinking Turbo 是 Kimi K2 系列的 Turbo 版本,针对推理速度和吞吐进行了优化,同时保留 K2 Thinking 的多步推理与工具调用能力。该模型基于混合专家(MoE)架构,总参数约 1T,原生支持 256K 上下文并可稳定执行大规模工具调用,适用于对延迟和并发有更高要求的生产场景。"
307
+ },
302
308
  "QwQ-32B-Preview": {
303
309
  "description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
304
310
  },
@@ -1052,6 +1058,9 @@
1052
1058
  "deepseek-coder-v2:236b": {
1053
1059
  "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
1054
1060
  },
1061
+ "deepseek-ocr": {
1062
+ "description": "DeepSeek-OCR 是由深度求索(DeepSeek AI)推出的一个视觉语言模型,专注于光学字符识别(OCR)与\"上下文光学压缩\"。该模型旨在探索从图像中压缩上下文信息的边界,能够高效处理文档并将其转换为如 Markdown 等结构化文本格式。它能够准确识别图像中的文字内容,特别适用于文档数字化、文字提取和结构化处理等应用场景。"
1063
+ },
1055
1064
  "deepseek-r1": {
1056
1065
  "description": "DeepSeek-R1 在强化学习(RL)之前引入了冷启动数据,在数学、代码和推理任务上表现可与 OpenAI-o1 相媲美。"
1057
1066
  },
@@ -1268,6 +1277,9 @@
1268
1277
  "doubao-seed-1.6-vision": {
1269
1278
  "description": "Doubao-Seed-1.6-vision 视觉深度思考模型,在教育、图像审核、巡检与安防和AI 搜索问答等场景下展现出更强的通用多模态理解和推理能力。支持 256k 上下文窗口,输出长度支持最大 64k tokens。"
1270
1279
  },
1280
+ "doubao-seed-code": {
1281
+ "description": "Doubao-Seed-Code 面向 Agentic 编程任务进行了深度优化,支持多模态(文字/图片/视频)与 256k 长上下文,兼容 Anthropic API,适用于编程、视觉理解与 Agent 场景。"
1282
+ },
1271
1283
  "doubao-seededit-3-0-i2i-250628": {
1272
1284
  "description": "Doubao图片生成模型由字节跳动 Seed 团队研发,支持文字与图片输入,提供高可控、高质量的图片生成体验。支持通过文本指令编辑图像,生成图像的边长在512~1536之间。"
1273
1285
  },
@@ -1328,6 +1340,9 @@
1328
1340
  "ernie-4.5-vl-28b-a3b": {
1329
1341
  "description": "ERNIE 4.5 VL 28B A3B,多模态开源模型,支持图文理解与推理任务。"
1330
1342
  },
1343
+ "ernie-5.0-thinking-latest": {
1344
+ "description": "文心5.0 Thinking,原生全模态旗舰模型,支持文本、图像、音频、视频统一建模,综合能力全面升级,适用于复杂问答、创作与智能体场景。"
1345
+ },
1331
1346
  "ernie-5.0-thinking-preview": {
1332
1347
  "description": "文心5.0 Thinking 预览版,原生全模态旗舰模型,支持文本、图像、音频、视频统一建模,综合能力全面升级,适用于复杂问答、创作与智能体场景。"
1333
1348
  },
@@ -2198,9 +2213,6 @@
2198
2213
  "kimi-latest": {
2199
2214
  "description": "Kimi 智能助手产品使用最新的 Kimi 大模型,可能包含尚未稳定的特性。支持图片理解,同时会自动根据请求的上下文长度选择 8k/32k/128k 模型作为计费模型"
2200
2215
  },
2201
- "kimi-thinking-preview": {
2202
- "description": "kimi-thinking-preview 模型是月之暗面提供的具有多模态推理能力和通用推理能力的多模态思考模型,它擅长深度推理,帮助解决更多更难的事情"
2203
- },
2204
2216
  "kuaishou/kat-coder-pro-v1": {
2205
2217
  "description": "KAT-Coder-Pro-V1(限时免费)专注于代码理解与自动化编程,用于高效的编程代理任务。"
2206
2218
  },
@@ -2246,9 +2258,6 @@
2246
2258
  "llama-3.3-instruct": {
2247
2259
  "description": "Llama 3.3 指令微调模型针对对话场景进行了优化,在常见的行业基准测试中,超越了许多现有的开源聊天模型。"
2248
2260
  },
2249
- "llama-4-scout-17b-16e-instruct": {
2250
- "description": "Llama 4 Scout:高性能的 Llama 系列模型,适合需高吞吐与低延迟的场景。"
2251
- },
2252
2261
  "llama3-70b-8192": {
2253
2262
  "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
2254
2263
  },
@@ -2681,6 +2690,9 @@
2681
2690
  "moonshotai/Kimi-K2-Instruct-0905": {
2682
2691
  "description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家(MoE)语言模型,拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
2683
2692
  },
2693
+ "moonshotai/Kimi-K2-Thinking": {
2694
+ "description": "Kimi K2 Thinking 是最新、最强大的开源思考模型。它通过大幅扩展多步推理深度,并在 200–300 次连续工具调用中保持稳定的工具使用,在 Humanity's Last Exam (HLE)、BrowseComp 及其他基准测试中树立了新的标杆。同时,K2 Thinking 在编程、数学、逻辑推理和 Agent 场景中表现卓越。该模型基于混合专家(MoE)架构,总参数约 1T,支持 256K 上下文窗口并支持工具调用。"
2695
+ },
2684
2696
  "moonshotai/kimi-k2": {
2685
2697
  "description": "Kimi K2 是由月之暗面 AI 开发的大规模混合专家 (MoE) 语言模型,具有 1 万亿总参数和每次前向传递 320 亿激活参数。它针对代理能力进行了优化,包括高级工具使用、推理和代码合成。"
2686
2698
  },
@@ -2721,7 +2733,7 @@
2721
2733
  "description": "o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。"
2722
2734
  },
2723
2735
  "o1-mini": {
2724
- "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
2736
+ "description": "o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。"
2725
2737
  },
2726
2738
  "o1-preview": {
2727
2739
  "description": "专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。"
@@ -2960,9 +2972,6 @@
2960
2972
  "qwen-3-32b": {
2961
2973
  "description": "Qwen 3 32B:Qwen 系列在多语言与编码任务上表现优良,适合中等规模生产化使用。"
2962
2974
  },
2963
- "qwen-3-coder-480b": {
2964
- "description": "Qwen 3 Coder 480B:面向代码生成与复杂编程任务的长上下文模型。"
2965
- },
2966
2975
  "qwen-coder-plus": {
2967
2976
  "description": "通义千问代码模型。"
2968
2977
  },
@@ -3323,6 +3332,9 @@
3323
3332
  "sonar-reasoning-pro": {
3324
3333
  "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
3325
3334
  },
3335
+ "spark-x": {
3336
+ "description": "X1.5能力介绍:(1)新增动态调整思考模式,通过thinking 字段控制;(2)上下文长度增大:输入、输出各64K;(3)支持FunctionCall功能。"
3337
+ },
3326
3338
  "stable-diffusion-3-medium": {
3327
3339
  "description": "由 Stability AI 推出的最新文生图大模型。这一版本在继承了前代的优点上,对图像质量、文本理解和风格多样性等方面进行了显著改进,能够更准确地解读复杂的自然语言提示,并生成更为精确和多样化的图像。"
3328
3340
  },
@@ -3524,9 +3536,6 @@
3524
3536
  "x-ai/grok-code-fast-1": {
3525
3537
  "description": "Grok Code Fast 1 是 xAI 的快速代码模型,输出具可读性与工程化适配。"
3526
3538
  },
3527
- "x1": {
3528
- "description": "Spark X1 模型将进一步升级,在原来数学任务国内领先基础上,推理、文本生成、语言理解等通用任务实现效果对标 OpenAI o1 和 DeepSeek R1。"
3529
- },
3530
3539
  "xai/grok-2": {
3531
3540
  "description": "Grok 2 是一个具有最先进推理能力的前沿语言模型。它在聊天、编码和推理方面具有先进能力,在 LMSYS 排行榜上优于 Claude 3.5 Sonnet 和 GPT-4-Turbo。"
3532
3541
  },
@@ -3593,6 +3602,9 @@
3593
3602
  "z-ai/glm-4.6": {
3594
3603
  "description": "GLM 4.6 是 Z.AI 的旗舰模型,扩展了上下文长度和编码能力。"
3595
3604
  },
3605
+ "zai-glm-4.6": {
3606
+ "description": "在编程与推理任务上表现优良,支持流式与工具调用,适合 agentic 编码与复杂推理场景。"
3607
+ },
3596
3608
  "zai-org/GLM-4.5": {
3597
3609
  "description": "GLM-4.5 是一款专为智能体应用打造的基础模型,使用了混合专家(Mixture-of-Experts)架构。在工具调用、网页浏览、软件工程、前端编程领域进行了深度优化,支持无缝接入 Claude Code、Roo Code 等代码智能体中使用。GLM-4.5 采用混合推理模式,可以适应复杂推理和日常使用等多种应用场景。"
3598
3610
  },
@@ -54,6 +54,7 @@
54
54
  },
55
55
  "betterAuth": {
56
56
  "errors": {
57
+ "emailExists": "該電子郵件已註冊,請直接登入",
57
58
  "emailInvalid": "請輸入有效的電子郵件地址",
58
59
  "emailNotRegistered": "該電子郵件尚未註冊",
59
60
  "emailNotVerified": "電子郵件尚未驗證,請先完成驗證",
@@ -65,6 +66,7 @@
65
66
  "passwordMaxLength": "密碼長度不得超過 64 個字元",
66
67
  "passwordMinLength": "密碼長度至少需為 8 個字元",
67
68
  "passwordRequired": "請輸入密碼",
69
+ "usernameNotRegistered": "該使用者名稱尚未註冊",
68
70
  "usernameRequired": "請輸入使用者名稱"
69
71
  },
70
72
  "resetPassword": {
@@ -101,7 +103,6 @@
101
103
  "continueWithZitadel": "使用 Zitadel 登入",
102
104
  "emailPlaceholder": "請輸入電子郵件地址",
103
105
  "emailStep": {
104
- "subtitle": "請輸入您的電子郵件地址以繼續",
105
106
  "title": "登入"
106
107
  },
107
108
  "error": "登入失敗,請檢查電子郵件與密碼",
@@ -194,6 +195,7 @@
194
195
  "resetPasswordError": "發送密碼重設連結失敗",
195
196
  "resetPasswordSent": "密碼重設連結已發送,請查收電子郵件",
196
197
  "save": "儲存",
198
+ "setPassword": "設定密碼",
197
199
  "sso": {
198
200
  "link": {
199
201
  "button": "連接帳號",
@@ -210,7 +212,14 @@
210
212
  "title": "個人資料詳情",
211
213
  "updateAvatar": "更新頭像",
212
214
  "updateFullName": "更新全名",
213
- "username": "用戶名"
215
+ "updateUsername": "更新使用者名稱",
216
+ "username": "用戶名",
217
+ "usernameDuplicate": "使用者名稱已被使用",
218
+ "usernameInputHint": "請輸入新的使用者名稱",
219
+ "usernamePlaceholder": "請輸入由字母、數字或底線組成的使用者名稱",
220
+ "usernameRequired": "使用者名稱不能為空",
221
+ "usernameRule": "使用者名稱僅支援字母、數字或底線",
222
+ "usernameUpdateFailed": "更新使用者名稱失敗,請稍後再試"
214
223
  },
215
224
  "signout": "登出",
216
225
  "signup": "註冊",