@lobehub/chat 1.47.16 → 1.47.18

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (51) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/modelProvider.json +1 -0
  4. package/locales/ar/models.json +30 -3
  5. package/locales/bg-BG/modelProvider.json +1 -0
  6. package/locales/bg-BG/models.json +30 -3
  7. package/locales/de-DE/modelProvider.json +1 -0
  8. package/locales/de-DE/models.json +30 -3
  9. package/locales/en-US/modelProvider.json +1 -0
  10. package/locales/en-US/models.json +30 -3
  11. package/locales/es-ES/modelProvider.json +1 -0
  12. package/locales/es-ES/models.json +30 -3
  13. package/locales/fa-IR/modelProvider.json +1 -0
  14. package/locales/fa-IR/models.json +30 -3
  15. package/locales/fr-FR/modelProvider.json +1 -0
  16. package/locales/fr-FR/models.json +30 -3
  17. package/locales/it-IT/modelProvider.json +1 -0
  18. package/locales/it-IT/models.json +30 -3
  19. package/locales/ja-JP/modelProvider.json +1 -0
  20. package/locales/ja-JP/models.json +30 -3
  21. package/locales/ko-KR/modelProvider.json +1 -0
  22. package/locales/ko-KR/models.json +30 -3
  23. package/locales/nl-NL/modelProvider.json +1 -0
  24. package/locales/nl-NL/models.json +30 -3
  25. package/locales/pl-PL/modelProvider.json +1 -0
  26. package/locales/pl-PL/models.json +30 -3
  27. package/locales/pt-BR/modelProvider.json +1 -0
  28. package/locales/pt-BR/models.json +30 -3
  29. package/locales/ru-RU/modelProvider.json +1 -0
  30. package/locales/ru-RU/models.json +30 -3
  31. package/locales/tr-TR/modelProvider.json +1 -0
  32. package/locales/tr-TR/models.json +30 -3
  33. package/locales/vi-VN/modelProvider.json +1 -0
  34. package/locales/vi-VN/models.json +30 -3
  35. package/locales/zh-CN/modelProvider.json +2 -1
  36. package/locales/zh-CN/models.json +32 -5
  37. package/locales/zh-TW/modelProvider.json +1 -0
  38. package/locales/zh-TW/models.json +30 -3
  39. package/package.json +2 -2
  40. package/src/app/(main)/settings/provider/(detail)/azure/page.tsx +4 -6
  41. package/src/app/(main)/settings/provider/(detail)/bedrock/page.tsx +5 -4
  42. package/src/app/(main)/settings/provider/(detail)/cloudflare/page.tsx +3 -3
  43. package/src/app/(main)/settings/provider/(detail)/github/page.tsx +2 -2
  44. package/src/app/(main)/settings/provider/(detail)/huggingface/page.tsx +2 -2
  45. package/src/app/(main)/settings/provider/(detail)/wenxin/page.tsx +3 -3
  46. package/src/app/(main)/settings/provider/features/ProviderConfig/index.tsx +17 -4
  47. package/src/components/FormInput/FormInput.tsx +42 -0
  48. package/src/components/FormInput/FormPassword.tsx +42 -0
  49. package/src/components/FormInput/index.ts +2 -0
  50. package/src/config/modelProviders/deepseek.ts +3 -0
  51. package/src/locales/default/modelProvider.ts +1 -0
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K, anlam güvenliği ve sorumluluk odaklılığı vurgular, içerik güvenliği konusunda yüksek gereksinimlere sahip uygulama senaryoları için tasarlanmıştır, kullanıcı deneyiminin doğruluğunu ve sağlamlığını garanti eder."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1, düşünce zincirini ağaç arama ile inşa eder ve yansıtma mekanizmasını entegre eder, pekiştirme öğrenimi ile eğitilir, model kendini yansıtma ve hata düzeltme yeteneğine sahiptir."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro, 360 şirketi tarafından sunulan yüksek düzeyde doğal dil işleme modelidir, mükemmel metin oluşturma ve anlama yeteneğine sahiptir, özellikle oluşturma ve yaratma alanında olağanüstü performans gösterir, karmaşık dil dönüşümleri ve rol canlandırma görevlerini işleyebilir."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 7B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B, görüntü ve metin için çok modlu işleme desteği sunan güçlü bir görsel dil modelidir, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct, 14 milyar parametreye sahip büyük bir dil modelidir. Performansı mükemmel olup, Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct, 7 milyar parametreye sahip büyük bir dil modelidir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim destekler, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct, büyük ölçekli önceden eğitilmiş bir programlama talimat modelidir, güçlü kod anlama ve üretme yeteneğine sahiptir, çeşitli programlama görevlerini verimli bir şekilde işleyebilir, özellikle akıllı kod yazma, otomatik betik oluşturma ve programlama sorunlarına yanıt verme için uygundur."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct, kod üretimi, kod anlama ve verimli geliştirme senaryoları için tasarlanmış büyük bir dil modelidir. Sektördeki en ileri 32B parametre ölçeğini kullanarak çeşitli programlama ihtiyaçlarını karşılayabilir."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "Kod Rakun, SenseTime büyük dil modeline dayanan bir yazılım akıllı geliştirme asistanıdır. Yazılım gereksinim analizi, mimari tasarım, kod yazımı, yazılım testi gibi aşamaları kapsar ve kullanıcıların kod yazma, programlama öğrenme gibi çeşitli ihtiyaçlarını karşılar. Kod Rakun, Python, Java, JavaScript, C++, Go, SQL gibi 90'dan fazla popüler programlama dilini ve VS Code, IntelliJ IDEA gibi popüler IDE'leri destekler. Gerçek uygulamalarda, Kod Rakun geliştiricilerin programlama verimliliğini %50'den fazla artırmasına yardımcı olabilir."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp, Google'ın en yeni deneysel çok modlu yapay zeka modelidir. Gelecek nesil özellikleri, olağanüstü hızı, yerel araç çağrısı ve çok modlu üretim ile donatılmıştır."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, üstün hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus, video içeriği ve çoklu görüntüleri anlama yeteneğine sahiptir, çok modlu görevler için uygundur."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K, ultra uzun bağlam işleme yeteneğine sahip bir modeldir, karmaşık üretim görevlerini karşılamak için ultra uzun metinler üretmekte kullanılabilir, 128,000 token'a kadar içeriği işleyebilir, araştırma, akademik ve büyük belgelerin üretilmesi gibi uygulama senaryoları için son derece uygundur."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K, orta uzunlukta bağlam işleme yeteneği sunar, 32,768 token'ı işleyebilir, çeşitli uzun belgeler ve karmaşık diyaloglar üretmek için özellikle uygundur, içerik oluşturma, rapor üretimi ve diyalog sistemleri gibi alanlarda kullanılabilir."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K, kısa metin görevleri için tasarlanmış, yüksek verimlilikte işleme performansı sunar, 8,192 token'ı işleyebilir, kısa diyaloglar, not alma ve hızlı içerik üretimi için son derece uygundur."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Büyük ölçekli bağlam etkileşimlerini destekler, karmaşık diyalog senaryoları için uygundur."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Görüntü anlama, bilgi transferi, mantıksal atıf gibi yetenekleri birleştirerek, metin ve görüntü ile soru-cevap alanında öne çıkmaktadır."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "Zidong Taichu dil büyük modeli, güçlü dil anlama yeteneği ile metin oluşturma, bilgi sorgulama, kod programlama, matematik hesaplama, mantıksal akıl yürütme, duygu analizi, metin özeti gibi yeteneklere sahiptir. Yenilikçi bir şekilde büyük veri ön eğitimi ile çok kaynaklı zengin bilgiyi birleştirir, algoritma teknolojisini sürekli olarak geliştirir ve büyük metin verilerinden kelime, yapı, dil bilgisi, anlam gibi yeni bilgileri sürekli olarak edinir, modelin performansını sürekli olarak evrimleştirir. Kullanıcılara daha kolay bilgi ve hizmetler sunar ve daha akıllı bir deneyim sağlar."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "Phải bao gồm http(s)://",
201
+ "invalid": "Vui lòng nhập một URL hợp lệ",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "Địa chỉ proxy API"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K nhấn mạnh an toàn ngữ nghĩa và định hướng trách nhiệm, được thiết kế đặc biệt cho các tình huống ứng dụng có yêu cầu cao về an toàn nội dung, đảm bảo độ chính xác và độ ổn định trong trải nghiệm người dùng."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 sử dụng tìm kiếm cây để xây dựng chuỗi tư duy, và đưa vào cơ chế phản hồi, sử dụng học tăng cường để đào tạo, mô hình có khả năng tự phản hồi và sửa lỗi."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro là mô hình xử lý ngôn ngữ tự nhiên cao cấp do công ty 360 phát hành, có khả năng tạo và hiểu văn bản xuất sắc, đặc biệt trong lĩnh vực tạo ra và sáng tạo, có thể xử lý các nhiệm vụ chuyển đổi ngôn ngữ phức tạp và diễn xuất vai trò."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 7B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B là một mô hình ngôn ngữ hình ảnh mạnh mẽ, hỗ trợ xử lý đa phương thức giữa hình ảnh và văn bản, có khả năng nhận diện chính xác nội dung hình ảnh và sinh ra mô tả hoặc câu trả lời liên quan."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct là một mô hình ngôn ngữ lớn với 14 tỷ tham số, có hiệu suất xuất sắc, tối ưu cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ các ứng dụng như hỏi đáp thông minh, tạo nội dung."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct là một mô hình ngôn ngữ lớn với 7 tỷ tham số, hỗ trợ gọi hàm và tương tác liền mạch với các hệ thống bên ngoài, nâng cao tính linh hoạt và khả năng mở rộng. Tối ưu cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ các ứng dụng như hỏi đáp thông minh, tạo nội dung."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct là một mô hình hướng dẫn lập trình dựa trên đào tạo trước quy mô lớn, có khả năng hiểu và sinh mã mạnh mẽ, có thể xử lý hiệu quả các nhiệm vụ lập trình khác nhau, đặc biệt phù hợp cho việc viết mã thông minh, tạo kịch bản tự động và giải đáp các vấn đề lập trình."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct là một mô hình ngôn ngữ lớn được thiết kế đặc biệt cho việc tạo mã, hiểu mã và các tình huống phát triển hiệu quả, với quy mô 32B tham số hàng đầu trong ngành, có thể đáp ứng nhu cầu lập trình đa dạng."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet cung cấp sự cân bằng lý tưởng giữa trí thông minh và tốc độ cho khối lượng công việc doanh nghiệp. Nó cung cấp hiệu suất tối đa với mức giá thấp hơn, đáng tin cậy và phù hợp cho triển khai quy mô lớn."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "Code Raccoon là một trợ lý phát triển phần mềm thông minh dựa trên mô hình ngôn ngữ lớn của SenseTime, bao phủ các giai đoạn phân tích yêu cầu phần mềm, thiết kế kiến trúc, viết mã, kiểm thử phần mềm, đáp ứng nhu cầu viết mã và học lập trình của người dùng. Code Raccoon hỗ trợ hơn 90 ngôn ngữ lập trình phổ biến như Python, Java, JavaScript, C++, Go, SQL và các IDE phổ biến như VS Code, IntelliJ IDEA. Trong thực tế, Code Raccoon có thể giúp các nhà phát triển nâng cao hiệu suất lập trình hơn 50%."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có các tính năng thế hệ tiếp theo, tốc độ vượt trội, khả năng gọi công cụ nguyên bản và tạo ra đa phương thức."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, với các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và tạo ra đa phương thức."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus có khả năng hiểu nội dung video và nhiều hình ảnh, phù hợp cho các nhiệm vụ đa phương tiện."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview có khả năng suy luận phức tạp mạnh mẽ, thể hiện xuất sắc trong các lĩnh vực suy luận logic, toán học, lập trình."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K là một mô hình có khả năng xử lý ngữ cảnh siêu dài, phù hợp cho việc sinh văn bản siêu dài, đáp ứng nhu cầu nhiệm vụ sinh phức tạp, có thể xử lý nội dung lên đến 128.000 tokens, rất phù hợp cho nghiên cứu, học thuật và sinh tài liệu lớn."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Mô hình hình ảnh Kimi (bao gồm moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, v.v.) có khả năng hiểu nội dung hình ảnh, bao gồm văn bản hình ảnh, màu sắc hình ảnh và hình dạng vật thể."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K cung cấp khả năng xử lý ngữ cảnh độ dài trung bình, có thể xử lý 32.768 tokens, đặc biệt phù hợp cho việc sinh các tài liệu dài và đối thoại phức tạp, ứng dụng trong sáng tạo nội dung, sinh báo cáo và hệ thống đối thoại."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Mô hình hình ảnh Kimi (bao gồm moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, v.v.) có khả năng hiểu nội dung hình ảnh, bao gồm văn bản hình ảnh, màu sắc hình ảnh và hình dạng vật thể."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K được thiết kế đặc biệt cho các nhiệm vụ sinh văn bản ngắn, có hiệu suất xử lý cao, có thể xử lý 8.192 tokens, rất phù hợp cho các cuộc đối thoại ngắn, ghi chú nhanh và sinh nội dung nhanh chóng."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Mô hình hình ảnh Kimi (bao gồm moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, v.v.) có khả năng hiểu nội dung hình ảnh, bao gồm văn bản hình ảnh, màu sắc hình ảnh và hình dạng vật thể."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Hỗ trợ tương tác ngữ cảnh quy mô lớn, phù hợp cho các tình huống đối thoại phức tạp."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Kết hợp khả năng hiểu hình ảnh, chuyển giao kiến thức, suy luận logic, nổi bật trong lĩnh vực hỏi đáp hình ảnh và văn bản."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "Mô hình ngôn ngữ lớn Taichu có khả năng hiểu ngôn ngữ mạnh mẽ và các khả năng như sáng tạo văn bản, trả lời câu hỏi kiến thức, lập trình mã, tính toán toán học, suy luận logic, phân tích cảm xúc, tóm tắt văn bản. Đổi mới kết hợp giữa đào tạo trước với dữ liệu phong phú từ nhiều nguồn, thông qua việc liên tục cải tiến công nghệ thuật toán và hấp thụ kiến thức mới từ dữ liệu văn bản khổng lồ, giúp mô hình ngày càng hoàn thiện. Cung cấp thông tin và dịch vụ tiện lợi hơn cho người dùng cùng trải nghiệm thông minh hơn."
1318
1345
  },
@@ -199,7 +199,8 @@
199
199
  "baseURL": {
200
200
  "desc": "必须包含 http(s)://",
201
201
  "placeholder": "https://your-proxy-url.com/v1",
202
- "title": "API 代理地址"
202
+ "title": "API 代理地址",
203
+ "invalid": "请输入合法的 URL"
203
204
  },
204
205
  "checker": {
205
206
  "button": "检查",
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K 强调语义安全和责任导向,专为对内容安全有高度要求的应用场景设计,确保用户体验的准确性与稳健性。"
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。"
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct 是一款 140 亿参数的大语言模型,性能表现优秀,优化中文和多语言场景,支持智能问答、内容生成等应用。"
223
232
  },
@@ -225,11 +234,14 @@
225
234
  "description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
226
235
  },
227
236
  "Qwen2.5-72B-Instruct": {
228
- "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
237
+ "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
229
238
  },
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct 是一款基于大规模预训练的编程指令模型,具备强大的代码理解和生成能力,能够高效地处理各种编程任务,特别适合智能代码编写、自动化脚本生成和编程问题解答。"
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct 是一款专为代码生成、代码理解和高效开发场景设计的大型语言模型,采用了业界领先的32B参数规模,能够满足多样化的编程需求。"
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "代码小浣熊是基于商汤大语言模型的软件智能研发助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节,满足用户代码编写、编程学习等各类需求。代码小浣熊支持 Python、Java、JavaScript、C++、Go、SQL 等 90+主流编程语言和 VS Code、IntelliJ IDEA 等主流 IDE。在实际应用中,代码小浣熊可帮助开发者提升编程效率超 50%。"
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。"
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp 是 Google 最新的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。"
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。"
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。"
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K 是一款拥有超长上下文处理能力的模型,适用于生成超长文本,满足复杂的生成任务需求,能够处理多达128,000个tokens的内容,非常适合科研、学术和大型文档生成等应用场景。"
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K 提供中等长度的上下文处理能力,能够处理32,768个tokens,特别适合生成各种长文档和复杂对话,应用于内容创作、报告生成和对话系统等领域。"
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K 专为生成短文本任务设计,具有高效的处理性能,能够处理8,192个tokens,非常适合简短对话、速记和快速内容生成。"
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。"
1111
1135
  },
@@ -1313,8 +1337,11 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "支持大规模上下文交互,适合复杂对话场景。"
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出"
1342
+ },
1316
1343
  "taichu_llm": {
1317
- "description": "Taichu 2.0 基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
1344
+ "description": "基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
1318
1345
  },
1319
1346
  "text-embedding-3-large": {
1320
1347
  "description": "最强大的向量化模型,适用于英文和非英文任务"
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "必須包含 http(s)://",
201
+ "invalid": "請輸入合法的 URL",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "API 代理地址"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K 強調語義安全和責任導向,專為對內容安全有高度要求的應用場景設計,確保用戶體驗的準確性與穩健性。"
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 使用樹搜索構建思維鏈,並引入了反思機制,使用強化學習訓練,模型具備自我反思與糾錯的能力。"
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro 是 360 公司推出的高級自然語言處理模型,具備卓越的文本生成和理解能力,尤其在生成與創作領域表現出色,能夠處理複雜的語言轉換和角色演繹任務。"
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "在 MiniMax-01系列模型中,我們做了大膽創新:首次大規模實現線性注意力機制,傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億,其中單次激活459億。模型綜合性能比肩海外頂尖模型,同時能夠高效處理全球最長400萬token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。"
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。"
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct 是一款140億參數的大語言模型,性能表現優秀,優化中文和多語言場景,支持智能問答、內容生成等應用。"
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct 是一款70億參數的大語言模型,支持函數調用與外部系統無縫互動,極大提升了靈活性和擴展性。優化中文和多語言場景,支持智能問答、內容生成等應用。"
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct 是一款基於大規模預訓練的程式指令模型,具備強大的程式理解和生成能力,能夠高效地處理各種程式任務,特別適合智能程式編寫、自動化腳本生成和程式問題解答。"
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct 是一款專為代碼生成、代碼理解和高效開發場景設計的大型語言模型,採用了業界領先的32B參數規模,能夠滿足多樣化的程式需求。"
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。"
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "代碼小浣熊是基於商湯大語言模型的軟體智能研發助手,覆蓋軟體需求分析、架構設計、代碼編寫、軟體測試等環節,滿足用戶代碼編寫、程式學習等各類需求。代碼小浣熊支持 Python、Java、JavaScript、C++、Go、SQL 等90+主流程式語言和 VS Code、IntelliJ IDEA 等主流 IDE。在實際應用中,代碼小浣熊可幫助開發者提升程式效率超過50%。"
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。"
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus具備對視頻內容及多圖片的理解能力,適合多模態任務。"
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview具備強大的複雜推理能力,在邏輯推理、數學、程式設計等領域表現優異。"
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash 提供了優化後的多模態處理能力,適用於多種複雜任務場景。"
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K 是一款擁有超長上下文處理能力的模型,適用於生成超長文本,滿足複雜的生成任務需求,能夠處理多達 128,000 個 tokens 的內容,非常適合科研、學術和大型文檔生成等應用場景。"
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K 提供中等長度的上下文處理能力,能夠處理 32,768 個 tokens,特別適合生成各種長文檔和複雜對話,應用於內容創作、報告生成和對話系統等領域。"
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K 專為生成短文本任務設計,具有高效的處理性能,能夠處理 8,192 個 tokens,非常適合簡短對話、速記和快速內容生成。"
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的升級版本,包含最新的內部開發的數據集。"
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "支持大規模上下文交互,適合複雜對話場景。"
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "融合了圖像理解、知識遷移、邏輯歸因等能力,在圖文問答領域表現突出"
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "紫東太初語言大模型具備超強語言理解能力以及文本創作、知識問答、代碼編程、數學計算、邏輯推理、情感分析、文本摘要等能力。創新性地將大數據預訓練與多源豐富知識相結合,通過持續打磨算法技術,並不斷吸收海量文本數據中詞彙、結構、語法、語義等方面的新知識,實現模型效果不斷進化。為用戶提供更加便捷的信息和服務以及更為智能化的體驗。"
1318
1345
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.47.16",
3
+ "version": "1.47.18",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -202,7 +202,7 @@
202
202
  "react-dom": "^19.0.0",
203
203
  "react-fast-marquee": "^1.6.5",
204
204
  "react-hotkeys-hook": "^4.6.1",
205
- "react-i18next": "14.0.2",
205
+ "react-i18next": "^15.4.0",
206
206
  "react-layout-kit": "^1.9.1",
207
207
  "react-lazy-load": "^4.0.1",
208
208
  "react-pdf": "^9.2.1",
@@ -1,10 +1,11 @@
1
1
  'use client';
2
2
 
3
3
  import { Markdown } from '@lobehub/ui';
4
- import { AutoComplete, Input } from 'antd';
4
+ import { AutoComplete } from 'antd';
5
5
  import { createStyles } from 'antd-style';
6
6
  import { useTranslation } from 'react-i18next';
7
7
 
8
+ import { FormInput, FormPassword } from '@/components/FormInput';
8
9
  import { AzureProviderCard } from '@/config/modelProviders';
9
10
  import { ModelProvider } from '@/libs/agent-runtime';
10
11
  import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
@@ -54,10 +55,7 @@ const useProviderCard = (): ProviderItem => {
54
55
  children: isLoading ? (
55
56
  <SkeletonInput />
56
57
  ) : (
57
- <Input.Password
58
- autoComplete={'new-password'}
59
- placeholder={t('azure.token.placeholder')}
60
- />
58
+ <FormPassword autoComplete={'new-password'} placeholder={t('azure.token.placeholder')} />
61
59
  ),
62
60
  desc: t('azure.token.desc'),
63
61
  label: t('azure.token.title'),
@@ -67,7 +65,7 @@ const useProviderCard = (): ProviderItem => {
67
65
  children: isLoading ? (
68
66
  <SkeletonInput />
69
67
  ) : (
70
- <Input allowClear placeholder={t('azure.endpoint.placeholder')} />
68
+ <FormInput allowClear placeholder={t('azure.endpoint.placeholder')} />
71
69
  ),
72
70
  desc: t('azure.endpoint.desc'),
73
71
  label: t('azure.endpoint.title'),
@@ -1,8 +1,9 @@
1
1
  'use client';
2
2
 
3
- import { Input, Select } from 'antd';
3
+ import { Select } from 'antd';
4
4
  import { useTranslation } from 'react-i18next';
5
5
 
6
+ import { FormPassword } from '@/components/FormInput';
6
7
  import { BedrockProviderCard } from '@/config/modelProviders';
7
8
  import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
8
9
  import { GlobalLLMProviderKey } from '@/types/user/settings';
@@ -26,7 +27,7 @@ const useBedrockCard = (): ProviderItem => {
26
27
  children: isLoading ? (
27
28
  <SkeletonInput />
28
29
  ) : (
29
- <Input.Password
30
+ <FormPassword
30
31
  autoComplete={'new-password'}
31
32
  placeholder={t(`${providerKey}.accessKeyId.placeholder`)}
32
33
  />
@@ -39,7 +40,7 @@ const useBedrockCard = (): ProviderItem => {
39
40
  children: isLoading ? (
40
41
  <SkeletonInput />
41
42
  ) : (
42
- <Input.Password
43
+ <FormPassword
43
44
  autoComplete={'new-password'}
44
45
  placeholder={t(`${providerKey}.secretAccessKey.placeholder`)}
45
46
  />
@@ -52,7 +53,7 @@ const useBedrockCard = (): ProviderItem => {
52
53
  children: isLoading ? (
53
54
  <SkeletonInput />
54
55
  ) : (
55
- <Input.Password
56
+ <FormPassword
56
57
  autoComplete={'new-password'}
57
58
  placeholder={t(`${providerKey}.sessionToken.placeholder`)}
58
59
  />
@@ -1,8 +1,8 @@
1
1
  'use client';
2
2
 
3
- import { Input } from 'antd';
4
3
  import { useTranslation } from 'react-i18next';
5
4
 
5
+ import { FormInput, FormPassword } from '@/components/FormInput';
6
6
  import { CloudflareProviderCard } from '@/config/modelProviders';
7
7
  import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
8
8
  import { GlobalLLMProviderKey } from '@/types/user/settings';
@@ -26,7 +26,7 @@ const useProviderCard = (): ProviderItem => {
26
26
  children: isLoading ? (
27
27
  <SkeletonInput />
28
28
  ) : (
29
- <Input.Password
29
+ <FormPassword
30
30
  autoComplete={'new-password'}
31
31
  placeholder={t(`${providerKey}.apiKey.placeholder`)}
32
32
  />
@@ -39,7 +39,7 @@ const useProviderCard = (): ProviderItem => {
39
39
  children: isLoading ? (
40
40
  <SkeletonInput />
41
41
  ) : (
42
- <Input placeholder={t(`${providerKey}.baseURLOrAccountID.placeholder`)} />
42
+ <FormInput placeholder={t(`${providerKey}.baseURLOrAccountID.placeholder`)} />
43
43
  ),
44
44
  desc: t(`${providerKey}.baseURLOrAccountID.desc`),
45
45
  label: t(`${providerKey}.baseURLOrAccountID.title`),
@@ -1,10 +1,10 @@
1
1
  'use client';
2
2
 
3
3
  import { Markdown } from '@lobehub/ui';
4
- import { Input } from 'antd';
5
4
  import { createStyles } from 'antd-style';
6
5
  import { useTranslation } from 'react-i18next';
7
6
 
7
+ import { FormPassword } from '@/components/FormInput';
8
8
  import { GithubProviderCard } from '@/config/modelProviders';
9
9
  import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
10
10
  import { GlobalLLMProviderKey } from '@/types/user/settings';
@@ -41,7 +41,7 @@ const useProviderCard = (): ProviderItem => {
41
41
  children: isLoading ? (
42
42
  <SkeletonInput />
43
43
  ) : (
44
- <Input.Password
44
+ <FormPassword
45
45
  autoComplete={'new-password'}
46
46
  placeholder={t(`github.personalAccessToken.placeholder`)}
47
47
  />
@@ -1,10 +1,10 @@
1
1
  'use client';
2
2
 
3
3
  import { Markdown } from '@lobehub/ui';
4
- import { Input } from 'antd';
5
4
  import { createStyles } from 'antd-style';
6
5
  import { useTranslation } from 'react-i18next';
7
6
 
7
+ import { FormPassword } from '@/components/FormInput';
8
8
  import { HuggingFaceProviderCard } from '@/config/modelProviders';
9
9
  import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
10
10
  import { GlobalLLMProviderKey } from '@/types/user/settings';
@@ -41,7 +41,7 @@ const useProviderCard = (): ProviderItem => {
41
41
  children: isLoading ? (
42
42
  <SkeletonInput />
43
43
  ) : (
44
- <Input.Password
44
+ <FormPassword
45
45
  autoComplete={'new-password'}
46
46
  placeholder={t(`huggingface.accessToken.placeholder`)}
47
47
  />