@lobehub/chat 1.36.27 → 1.36.29
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/changelog/v1.json +14 -0
- package/locales/ar/common.json +37 -1
- package/locales/ar/models.json +27 -0
- package/locales/bg-BG/common.json +37 -1
- package/locales/bg-BG/models.json +27 -0
- package/locales/de-DE/common.json +37 -1
- package/locales/de-DE/models.json +27 -0
- package/locales/en-US/common.json +37 -1
- package/locales/en-US/models.json +27 -0
- package/locales/es-ES/common.json +37 -1
- package/locales/es-ES/models.json +27 -0
- package/locales/fa-IR/common.json +37 -1
- package/locales/fa-IR/models.json +27 -0
- package/locales/fr-FR/common.json +37 -1
- package/locales/fr-FR/models.json +27 -0
- package/locales/it-IT/common.json +37 -1
- package/locales/it-IT/models.json +27 -0
- package/locales/ja-JP/common.json +37 -1
- package/locales/ja-JP/models.json +27 -0
- package/locales/ko-KR/common.json +37 -1
- package/locales/ko-KR/models.json +27 -0
- package/locales/nl-NL/common.json +37 -1
- package/locales/nl-NL/models.json +27 -0
- package/locales/pl-PL/common.json +37 -1
- package/locales/pl-PL/models.json +27 -0
- package/locales/pt-BR/common.json +37 -1
- package/locales/pt-BR/models.json +27 -0
- package/locales/ru-RU/common.json +37 -1
- package/locales/ru-RU/models.json +27 -0
- package/locales/tr-TR/common.json +37 -1
- package/locales/tr-TR/models.json +27 -0
- package/locales/vi-VN/common.json +37 -1
- package/locales/vi-VN/models.json +27 -0
- package/locales/zh-CN/common.json +37 -1
- package/locales/zh-CN/models.json +28 -1
- package/locales/zh-TW/common.json +37 -1
- package/locales/zh-TW/models.json +27 -0
- package/package.json +1 -1
- package/src/app/loading/Content.tsx +14 -0
- package/src/app/loading/Redirect.tsx +28 -12
- package/src/app/loading/index.tsx +8 -3
- package/src/const/locale.ts +2 -4
- package/src/locales/default/common.ts +37 -1
- package/src/server/modules/AssistantStore/index.test.ts +8 -4
- package/src/server/modules/PluginStore/index.test.ts +2 -2
- package/src/store/global/selectors.ts +5 -1
- package/src/app/loading/Client.tsx +0 -13
@@ -112,6 +112,12 @@
|
|
112
112
|
"Gryphe/MythoMax-L2-13b": {
|
113
113
|
"description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir."
|
114
114
|
},
|
115
|
+
"InternVL2-8B": {
|
116
|
+
"description": "InternVL2-8B, güçlü bir görsel dil modelidir. Görüntü ve metinlerin çok modlu işlenmesini destekler, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
|
117
|
+
},
|
118
|
+
"InternVL2.5-26B": {
|
119
|
+
"description": "InternVL2.5-26B, güçlü bir görsel dil modelidir. Görüntü ve metinlerin çok modlu işlenmesini destekler, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
|
120
|
+
},
|
115
121
|
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
|
116
122
|
"description": "Qwen2.5-72B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 72B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
|
117
123
|
},
|
@@ -233,9 +239,21 @@
|
|
233
239
|
"Qwen2-7B-Instruct": {
|
234
240
|
"description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda."
|
235
241
|
},
|
242
|
+
"Qwen2.5-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-14B-Instruct, 14 milyar parametreye sahip büyük bir dil modelidir. Performansı mükemmel olup, Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
244
|
+
},
|
245
|
+
"Qwen2.5-32B-Instruct": {
|
246
|
+
"description": "Qwen2.5-32B-Instruct, 32 milyar parametreye sahip büyük bir dil modelidir. Performans dengeli olup, Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
247
|
+
},
|
236
248
|
"Qwen2.5-72B-Instruct": {
|
237
249
|
"description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır."
|
238
250
|
},
|
251
|
+
"Qwen2.5-7B-Instruct": {
|
252
|
+
"description": "Qwen2.5-7B-Instruct, 7 milyar parametreye sahip büyük bir dil modelidir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim destekler, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
253
|
+
},
|
254
|
+
"Qwen2.5-Coder-32B-Instruct": {
|
255
|
+
"description": "Qwen2.5-Coder-32B-Instruct, kod üretimi, kod anlama ve verimli geliştirme senaryoları için tasarlanmış büyük bir dil modelidir. Sektördeki en ileri 32B parametre ölçeğini kullanarak çeşitli programlama ihtiyaçlarını karşılayabilir."
|
256
|
+
},
|
239
257
|
"SenseChat": {
|
240
258
|
"description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
|
241
259
|
},
|
@@ -464,6 +482,9 @@
|
|
464
482
|
"claude-3-sonnet-20240229": {
|
465
483
|
"description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur."
|
466
484
|
},
|
485
|
+
"code-raccoon-v1": {
|
486
|
+
"description": "Kod Rakun, SenseTime büyük dil modeline dayanan bir yazılım akıllı geliştirme asistanıdır. Yazılım gereksinim analizi, mimari tasarım, kod yazımı, yazılım testi gibi aşamaları kapsar ve kullanıcıların kod yazma, programlama öğrenme gibi çeşitli ihtiyaçlarını karşılar. Kod Rakun, Python, Java, JavaScript, C++, Go, SQL gibi 90'dan fazla popüler programlama dilini ve VS Code, IntelliJ IDEA gibi popüler IDE'leri destekler. Gerçek uygulamalarda, Kod Rakun geliştiricilerin programlama verimliliğini %50'den fazla artırmasına yardımcı olabilir."
|
487
|
+
},
|
467
488
|
"codegeex-4": {
|
468
489
|
"description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır."
|
469
490
|
},
|
@@ -752,6 +773,12 @@
|
|
752
773
|
"gpt-4o-mini": {
|
753
774
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
754
775
|
},
|
776
|
+
"grok-2-1212": {
|
777
|
+
"description": "Bu model, doğruluk, talimat takibi ve çok dilli yetenekler açısından geliştirilmiştir."
|
778
|
+
},
|
779
|
+
"grok-2-vision-1212": {
|
780
|
+
"description": "Bu model, doğruluk, talimat takibi ve çok dilli yetenekler açısından geliştirilmiştir."
|
781
|
+
},
|
755
782
|
"grok-beta": {
|
756
783
|
"description": "Grok 2 ile karşılaştırılabilir performansa sahip, ancak daha yüksek verimlilik, hız ve işlevsellik sunar."
|
757
784
|
},
|
@@ -9,7 +9,10 @@
|
|
9
9
|
"title": "Chào mừng bạn trải nghiệm {{name}}"
|
10
10
|
}
|
11
11
|
},
|
12
|
-
"
|
12
|
+
"appLoading": {
|
13
|
+
"goToChat": "Đang tải trang trò chuyện...",
|
14
|
+
"initializing": "Đang khởi động ứng dụng..."
|
15
|
+
},
|
13
16
|
"autoGenerate": "Tự động tạo",
|
14
17
|
"autoGenerateTooltip": "Tự động hoàn thành mô tả trợ lý dựa trên từ gợi ý",
|
15
18
|
"autoGenerateTooltipDisabled": "Vui lòng nhập từ gợi ý trước khi sử dụng tính năng tự động hoàn thành",
|
@@ -20,6 +23,39 @@
|
|
20
23
|
"branchingDisable": "Chức năng «Chủ đề con» chỉ có sẵn trong phiên bản máy chủ. Nếu bạn cần chức năng này, hãy chuyển sang chế độ triển khai máy chủ hoặc sử dụng LobeChat Cloud.",
|
21
24
|
"cancel": "Hủy",
|
22
25
|
"changelog": "Nhật ký cập nhật",
|
26
|
+
"clientDB": {
|
27
|
+
"autoInit": {
|
28
|
+
"title": "Khởi tạo cơ sở dữ liệu PGlite"
|
29
|
+
},
|
30
|
+
"error": {
|
31
|
+
"desc": "Rất tiếc, đã xảy ra sự cố trong quá trình khởi tạo cơ sở dữ liệu Pglite. Vui lòng nhấp vào nút 「Thử lại」.<br><br> Nếu vẫn gặp lỗi, vui lòng <1>gửi vấn đề</1> , chúng tôi sẽ giúp bạn kiểm tra ngay lập tức",
|
32
|
+
"retry": "Thử lại",
|
33
|
+
"title": "Cập nhật cơ sở dữ liệu không thành công"
|
34
|
+
},
|
35
|
+
"initing": {
|
36
|
+
"error": "Đã xảy ra lỗi, vui lòng thử lại",
|
37
|
+
"idle": "Đang chờ khởi tạo...",
|
38
|
+
"initializing": "Đang khởi tạo...",
|
39
|
+
"loadingDependencies": "Đang tải phụ thuộc({{progress}}%)...",
|
40
|
+
"loadingWasmModule": "Đang tải mô-đun WASM({{progress}}%)...",
|
41
|
+
"migrating": "Đang di chuyển dữ liệu...",
|
42
|
+
"ready": "Cơ sở dữ liệu đã sẵn sàng"
|
43
|
+
},
|
44
|
+
"modal": {
|
45
|
+
"desc": "Kích hoạt cơ sở dữ liệu khách hàng PGlite, lưu trữ dữ liệu trò chuyện của bạn trong trình duyệt và sử dụng các tính năng nâng cao như kho kiến thức",
|
46
|
+
"enable": "Kích hoạt ngay",
|
47
|
+
"init": {
|
48
|
+
"desc": "Đang khởi tạo cơ sở dữ liệu, thời gian có thể từ 5~30 giây tùy thuộc vào mạng",
|
49
|
+
"title": "Đang khởi tạo cơ sở dữ liệu PGlite"
|
50
|
+
},
|
51
|
+
"title": "Bật cơ sở dữ liệu khách hàng"
|
52
|
+
},
|
53
|
+
"ready": {
|
54
|
+
"button": "Sử dụng ngay",
|
55
|
+
"desc": "Sử dụng ngay",
|
56
|
+
"title": "Cơ sở dữ liệu PGlite đã sẵn sàng"
|
57
|
+
}
|
58
|
+
},
|
23
59
|
"close": "Đóng",
|
24
60
|
"contact": "Liên hệ chúng tôi",
|
25
61
|
"copy": "Sao chép",
|
@@ -112,6 +112,12 @@
|
|
112
112
|
"Gryphe/MythoMax-L2-13b": {
|
113
113
|
"description": "MythoMax-L2 (13B) là một mô hình sáng tạo, phù hợp cho nhiều lĩnh vực ứng dụng và nhiệm vụ phức tạp."
|
114
114
|
},
|
115
|
+
"InternVL2-8B": {
|
116
|
+
"description": "InternVL2-8B là một mô hình ngôn ngữ hình ảnh mạnh mẽ, hỗ trợ xử lý đa phương tiện giữa hình ảnh và văn bản, có khả năng nhận diện chính xác nội dung hình ảnh và tạo ra mô tả hoặc câu trả lời liên quan."
|
117
|
+
},
|
118
|
+
"InternVL2.5-26B": {
|
119
|
+
"description": "InternVL2.5-26B là một mô hình ngôn ngữ hình ảnh mạnh mẽ, hỗ trợ xử lý đa phương tiện giữa hình ảnh và văn bản, có khả năng nhận diện chính xác nội dung hình ảnh và tạo ra mô tả hoặc câu trả lời liên quan."
|
120
|
+
},
|
115
121
|
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
|
116
122
|
"description": "Qwen2.5-72B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 72B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
|
117
123
|
},
|
@@ -233,9 +239,21 @@
|
|
233
239
|
"Qwen2-7B-Instruct": {
|
234
240
|
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung."
|
235
241
|
},
|
242
|
+
"Qwen2.5-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-14B-Instruct là một mô hình ngôn ngữ lớn với 14 tỷ tham số, có hiệu suất xuất sắc, tối ưu cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ các ứng dụng như hỏi đáp thông minh, tạo nội dung."
|
244
|
+
},
|
245
|
+
"Qwen2.5-32B-Instruct": {
|
246
|
+
"description": "Qwen2.5-32B-Instruct là một mô hình ngôn ngữ lớn với 32 tỷ tham số, có hiệu suất cân bằng, tối ưu cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ các ứng dụng như hỏi đáp thông minh, tạo nội dung."
|
247
|
+
},
|
236
248
|
"Qwen2.5-72B-Instruct": {
|
237
249
|
"description": "Qwen2.5-72B-Instruct hỗ trợ ngữ cảnh 16k, tạo ra văn bản dài hơn 8K. Hỗ trợ gọi hàm và tương tác liền mạch với hệ thống bên ngoài, nâng cao đáng kể tính linh hoạt và khả năng mở rộng. Kiến thức của mô hình đã tăng lên rõ rệt và khả năng mã hóa cũng như toán học được cải thiện đáng kể, hỗ trợ hơn 29 ngôn ngữ."
|
238
250
|
},
|
251
|
+
"Qwen2.5-7B-Instruct": {
|
252
|
+
"description": "Qwen2.5-7B-Instruct là một mô hình ngôn ngữ lớn với 7 tỷ tham số, hỗ trợ gọi hàm và tương tác liền mạch với các hệ thống bên ngoài, nâng cao tính linh hoạt và khả năng mở rộng. Tối ưu cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ các ứng dụng như hỏi đáp thông minh, tạo nội dung."
|
253
|
+
},
|
254
|
+
"Qwen2.5-Coder-32B-Instruct": {
|
255
|
+
"description": "Qwen2.5-Coder-32B-Instruct là một mô hình ngôn ngữ lớn được thiết kế đặc biệt cho việc tạo mã, hiểu mã và các tình huống phát triển hiệu quả, với quy mô 32B tham số hàng đầu trong ngành, có thể đáp ứng nhu cầu lập trình đa dạng."
|
256
|
+
},
|
239
257
|
"SenseChat": {
|
240
258
|
"description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ."
|
241
259
|
},
|
@@ -464,6 +482,9 @@
|
|
464
482
|
"claude-3-sonnet-20240229": {
|
465
483
|
"description": "Claude 3 Sonnet cung cấp sự cân bằng lý tưởng giữa trí thông minh và tốc độ cho khối lượng công việc doanh nghiệp. Nó cung cấp hiệu suất tối đa với mức giá thấp hơn, đáng tin cậy và phù hợp cho triển khai quy mô lớn."
|
466
484
|
},
|
485
|
+
"code-raccoon-v1": {
|
486
|
+
"description": "Code Raccoon là một trợ lý phát triển phần mềm thông minh dựa trên mô hình ngôn ngữ lớn của SenseTime, bao phủ các giai đoạn phân tích yêu cầu phần mềm, thiết kế kiến trúc, viết mã, kiểm thử phần mềm, đáp ứng nhu cầu viết mã và học lập trình của người dùng. Code Raccoon hỗ trợ hơn 90 ngôn ngữ lập trình phổ biến như Python, Java, JavaScript, C++, Go, SQL và các IDE phổ biến như VS Code, IntelliJ IDEA. Trong thực tế, Code Raccoon có thể giúp các nhà phát triển nâng cao hiệu suất lập trình hơn 50%."
|
487
|
+
},
|
467
488
|
"codegeex-4": {
|
468
489
|
"description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển."
|
469
490
|
},
|
@@ -752,6 +773,12 @@
|
|
752
773
|
"gpt-4o-mini": {
|
753
774
|
"description": "GPT-4o mini là mô hình mới nhất do OpenAI phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và đầu ra văn bản. Là mô hình nhỏ gọn tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng cao hơn GPT-4 về sở thích trò chuyện."
|
754
775
|
},
|
776
|
+
"grok-2-1212": {
|
777
|
+
"description": "Mô hình này đã được cải thiện về độ chính xác, khả năng tuân thủ hướng dẫn và khả năng đa ngôn ngữ."
|
778
|
+
},
|
779
|
+
"grok-2-vision-1212": {
|
780
|
+
"description": "Mô hình này đã được cải thiện về độ chính xác, khả năng tuân thủ hướng dẫn và khả năng đa ngôn ngữ."
|
781
|
+
},
|
755
782
|
"grok-beta": {
|
756
783
|
"description": "Có hiệu suất tương đương với Grok 2, nhưng hiệu quả, tốc độ và tính năng cao hơn."
|
757
784
|
},
|
@@ -9,7 +9,10 @@
|
|
9
9
|
"title": "{{name}} 开始公测"
|
10
10
|
}
|
11
11
|
},
|
12
|
-
"
|
12
|
+
"appLoading": {
|
13
|
+
"goToChat": "对话页面加载中...",
|
14
|
+
"initializing": "应用启动中..."
|
15
|
+
},
|
13
16
|
"autoGenerate": "自动补全",
|
14
17
|
"autoGenerateTooltip": "基于提示词自动补全助手描述",
|
15
18
|
"autoGenerateTooltipDisabled": "请填写提示词后使用自动补全功能",
|
@@ -20,6 +23,39 @@
|
|
20
23
|
"branchingDisable": "「子话题」功能仅服务端版本可用,如需该功能,请切换到服务端部署模式或使用 LobeChat Cloud",
|
21
24
|
"cancel": "取消",
|
22
25
|
"changelog": "更新日志",
|
26
|
+
"clientDB": {
|
27
|
+
"autoInit": {
|
28
|
+
"title": "初始化 PGlite 数据库"
|
29
|
+
},
|
30
|
+
"error": {
|
31
|
+
"desc": "非常抱歉,Pglite 数据库初始化过程发生异常。请点击 「重试」按钮。<br><br> 如仍然出错,请 <1>提交问题</1> ,我们将会第一时间帮你排查",
|
32
|
+
"retry": "重试",
|
33
|
+
"title": "数据库升级失败"
|
34
|
+
},
|
35
|
+
"initing": {
|
36
|
+
"error": "发生错误,请重试",
|
37
|
+
"idle": "等待初始化...",
|
38
|
+
"initializing": "正在初始化...",
|
39
|
+
"loadingDependencies": "加载依赖中({{progress}}%)...",
|
40
|
+
"loadingWasmModule": "加载 WASM 模块中({{progress}}%)...",
|
41
|
+
"migrating": "正在迁移数据...",
|
42
|
+
"ready": "数据库已就绪"
|
43
|
+
},
|
44
|
+
"modal": {
|
45
|
+
"desc": "启用 PGlite 客户端数据库,在你的浏览器中持久存储聊天数据,并使用知识库等进阶特性",
|
46
|
+
"enable": "立即启用",
|
47
|
+
"init": {
|
48
|
+
"desc": "正在初始化数据库,视网络差异可能会用时 5~30 秒不等",
|
49
|
+
"title": "正在初始化 PGlite 数据库"
|
50
|
+
},
|
51
|
+
"title": "开启客户端数据库"
|
52
|
+
},
|
53
|
+
"ready": {
|
54
|
+
"button": "立即使用",
|
55
|
+
"desc": "立即想用",
|
56
|
+
"title": "PGlite 数据库已就绪"
|
57
|
+
}
|
58
|
+
},
|
23
59
|
"close": "关闭",
|
24
60
|
"contact": "联系我们",
|
25
61
|
"copy": "复制",
|
@@ -112,6 +112,12 @@
|
|
112
112
|
"Gryphe/MythoMax-L2-13b": {
|
113
113
|
"description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
|
114
114
|
},
|
115
|
+
"InternVL2-8B": {
|
116
|
+
"description": "InternVL2-8B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
|
117
|
+
},
|
118
|
+
"InternVL2.5-26B": {
|
119
|
+
"description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
|
120
|
+
},
|
115
121
|
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
|
116
122
|
"description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
|
117
123
|
},
|
@@ -233,8 +239,20 @@
|
|
233
239
|
"Qwen2-7B-Instruct": {
|
234
240
|
"description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。"
|
235
241
|
},
|
242
|
+
"Qwen2.5-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-14B-Instruct 是一款 140 亿参数的大语言模型,性能表现优秀,优化中文和多语言场景,支持智能问答、内容生成等应用。"
|
244
|
+
},
|
245
|
+
"Qwen2.5-32B-Instruct": {
|
246
|
+
"description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
|
247
|
+
},
|
236
248
|
"Qwen2.5-72B-Instruct": {
|
237
|
-
"description": "Qwen2.5-72B-Instruct
|
249
|
+
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
|
250
|
+
},
|
251
|
+
"Qwen2.5-7B-Instruct": {
|
252
|
+
"description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
|
253
|
+
},
|
254
|
+
"Qwen2.5-Coder-32B-Instruct": {
|
255
|
+
"description": "Qwen2.5-Coder-32B-Instruct 是一款专为代码生成、代码理解和高效开发场景设计的大型语言模型,采用了业界领先的32B参数规模,能够满足多样化的编程需求。"
|
238
256
|
},
|
239
257
|
"SenseChat": {
|
240
258
|
"description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
|
@@ -464,6 +482,9 @@
|
|
464
482
|
"claude-3-sonnet-20240229": {
|
465
483
|
"description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
|
466
484
|
},
|
485
|
+
"code-raccoon-v1": {
|
486
|
+
"description": "代码小浣熊是基于商汤大语言模型的软件智能研发助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节,满足用户代码编写、编程学习等各类需求。代码小浣熊支持 Python、Java、JavaScript、C++、Go、SQL 等 90+主流编程语言和 VS Code、IntelliJ IDEA 等主流 IDE。在实际应用中,代码小浣熊可帮助开发者提升编程效率超 50%。"
|
487
|
+
},
|
467
488
|
"codegeex-4": {
|
468
489
|
"description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
|
469
490
|
},
|
@@ -752,6 +773,12 @@
|
|
752
773
|
"gpt-4o-mini": {
|
753
774
|
"description": "一种经济高效的AI解决方案,适用于多种文本和图像任务。"
|
754
775
|
},
|
776
|
+
"grok-2-1212": {
|
777
|
+
"description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
|
778
|
+
},
|
779
|
+
"grok-2-vision-1212": {
|
780
|
+
"description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
|
781
|
+
},
|
755
782
|
"grok-beta": {
|
756
783
|
"description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。"
|
757
784
|
},
|
@@ -9,7 +9,10 @@
|
|
9
9
|
"title": "歡迎體驗 {{name}}"
|
10
10
|
}
|
11
11
|
},
|
12
|
-
"
|
12
|
+
"appLoading": {
|
13
|
+
"goToChat": "對話頁面加載中...",
|
14
|
+
"initializing": "應用啟動中..."
|
15
|
+
},
|
13
16
|
"autoGenerate": "自動生成",
|
14
17
|
"autoGenerateTooltip": "基於提示詞自動生成助手描述",
|
15
18
|
"autoGenerateTooltipDisabled": "請填寫提示詞後使用自動補全功能",
|
@@ -20,6 +23,39 @@
|
|
20
23
|
"branchingDisable": "「子主題」功能僅在伺服器端版本可用,如需該功能,請切換到伺服器端部署模式或使用 LobeChat Cloud",
|
21
24
|
"cancel": "取消",
|
22
25
|
"changelog": "變更日誌",
|
26
|
+
"clientDB": {
|
27
|
+
"autoInit": {
|
28
|
+
"title": "初始化 PGlite 數據庫"
|
29
|
+
},
|
30
|
+
"error": {
|
31
|
+
"desc": "非常抱歉,Pglite 數據庫初始化過程發生異常。請點擊 「重試」按鈕。<br><br> 如仍然出錯,請 <1>提交問題</1> ,我們將會第一時間幫你排查",
|
32
|
+
"retry": "重試",
|
33
|
+
"title": "數據庫升級失敗"
|
34
|
+
},
|
35
|
+
"initing": {
|
36
|
+
"error": "發生錯誤,請重試",
|
37
|
+
"idle": "等待初始化...",
|
38
|
+
"initializing": "正在初始化...",
|
39
|
+
"loadingDependencies": "加載依賴中({{progress}}%)...",
|
40
|
+
"loadingWasmModule": "加載 WASM 模塊中({{progress}}%)...",
|
41
|
+
"migrating": "正在遷移數據...",
|
42
|
+
"ready": "數據庫已就緒"
|
43
|
+
},
|
44
|
+
"modal": {
|
45
|
+
"desc": "啟用 PGlite 客戶端數據庫,在你的瀏覽器中持久存儲聊天數據,並使用知識庫等進階特性",
|
46
|
+
"enable": "立即啟用",
|
47
|
+
"init": {
|
48
|
+
"desc": "正在初始化數據庫,視網絡差異可能會用時 5~30 秒不等",
|
49
|
+
"title": "正在初始化 PGlite 數據庫"
|
50
|
+
},
|
51
|
+
"title": "開啟客戶端數據庫"
|
52
|
+
},
|
53
|
+
"ready": {
|
54
|
+
"button": "立即使用",
|
55
|
+
"desc": "立即想用",
|
56
|
+
"title": "PGlite 數據庫已就緒"
|
57
|
+
}
|
58
|
+
},
|
23
59
|
"close": "關閉",
|
24
60
|
"contact": "聯繫我們",
|
25
61
|
"copy": "複製",
|
@@ -112,6 +112,12 @@
|
|
112
112
|
"Gryphe/MythoMax-L2-13b": {
|
113
113
|
"description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。"
|
114
114
|
},
|
115
|
+
"InternVL2-8B": {
|
116
|
+
"description": "InternVL2-8B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
|
117
|
+
},
|
118
|
+
"InternVL2.5-26B": {
|
119
|
+
"description": "InternVL2.5-26B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
|
120
|
+
},
|
115
121
|
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
|
116
122
|
"description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
|
117
123
|
},
|
@@ -233,9 +239,21 @@
|
|
233
239
|
"Qwen2-7B-Instruct": {
|
234
240
|
"description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。"
|
235
241
|
},
|
242
|
+
"Qwen2.5-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-14B-Instruct 是一款140億參數的大語言模型,性能表現優秀,優化中文和多語言場景,支持智能問答、內容生成等應用。"
|
244
|
+
},
|
245
|
+
"Qwen2.5-32B-Instruct": {
|
246
|
+
"description": "Qwen2.5-32B-Instruct 是一款320億參數的大語言模型,性能表現均衡,優化中文和多語言場景,支持智能問答、內容生成等應用。"
|
247
|
+
},
|
236
248
|
"Qwen2.5-72B-Instruct": {
|
237
249
|
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持 function call 與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。"
|
238
250
|
},
|
251
|
+
"Qwen2.5-7B-Instruct": {
|
252
|
+
"description": "Qwen2.5-7B-Instruct 是一款70億參數的大語言模型,支持函數調用與外部系統無縫互動,極大提升了靈活性和擴展性。優化中文和多語言場景,支持智能問答、內容生成等應用。"
|
253
|
+
},
|
254
|
+
"Qwen2.5-Coder-32B-Instruct": {
|
255
|
+
"description": "Qwen2.5-Coder-32B-Instruct 是一款專為代碼生成、代碼理解和高效開發場景設計的大型語言模型,採用了業界領先的32B參數規模,能夠滿足多樣化的程式需求。"
|
256
|
+
},
|
239
257
|
"SenseChat": {
|
240
258
|
"description": "基礎版本模型 (V4),4K上下文長度,通用能力強大"
|
241
259
|
},
|
@@ -464,6 +482,9 @@
|
|
464
482
|
"claude-3-sonnet-20240229": {
|
465
483
|
"description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。"
|
466
484
|
},
|
485
|
+
"code-raccoon-v1": {
|
486
|
+
"description": "代碼小浣熊是基於商湯大語言模型的軟體智能研發助手,覆蓋軟體需求分析、架構設計、代碼編寫、軟體測試等環節,滿足用戶代碼編寫、程式學習等各類需求。代碼小浣熊支持 Python、Java、JavaScript、C++、Go、SQL 等90+主流程式語言和 VS Code、IntelliJ IDEA 等主流 IDE。在實際應用中,代碼小浣熊可幫助開發者提升程式效率超過50%。"
|
487
|
+
},
|
467
488
|
"codegeex-4": {
|
468
489
|
"description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。"
|
469
490
|
},
|
@@ -752,6 +773,12 @@
|
|
752
773
|
"gpt-4o-mini": {
|
753
774
|
"description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。"
|
754
775
|
},
|
776
|
+
"grok-2-1212": {
|
777
|
+
"description": "該模型在準確性、指令遵循和多語言能力方面有所改進。"
|
778
|
+
},
|
779
|
+
"grok-2-vision-1212": {
|
780
|
+
"description": "該模型在準確性、指令遵循和多語言能力方面有所改進。"
|
781
|
+
},
|
755
782
|
"grok-beta": {
|
756
783
|
"description": "擁有與 Grok 2 相當的性能,但具備更高的效率、速度和功能。"
|
757
784
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.36.
|
3
|
+
"version": "1.36.29",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -0,0 +1,14 @@
|
|
1
|
+
import React, { memo } from 'react';
|
2
|
+
import { useTranslation } from 'react-i18next';
|
3
|
+
|
4
|
+
import FullscreenLoading from '@/components/FullscreenLoading';
|
5
|
+
|
6
|
+
const Content = memo<{ goToChat: boolean }>(({ goToChat }) => {
|
7
|
+
const { t } = useTranslation('common');
|
8
|
+
|
9
|
+
return (
|
10
|
+
<FullscreenLoading title={goToChat ? t('appLoading.goToChat') : t('appLoading.initializing')} />
|
11
|
+
);
|
12
|
+
});
|
13
|
+
|
14
|
+
export default Content;
|
@@ -3,27 +3,43 @@
|
|
3
3
|
import { useRouter } from 'next/navigation';
|
4
4
|
import { memo, useEffect } from 'react';
|
5
5
|
|
6
|
+
import { useGlobalStore } from '@/store/global';
|
7
|
+
import { systemStatusSelectors } from '@/store/global/selectors';
|
6
8
|
import { useUserStore } from '@/store/user';
|
7
9
|
import { authSelectors } from '@/store/user/selectors';
|
8
10
|
|
9
|
-
|
11
|
+
interface RedirectProps {
|
12
|
+
setGoToChat: (value: boolean) => void;
|
13
|
+
}
|
14
|
+
|
15
|
+
const Redirect = memo<RedirectProps>(({ setGoToChat }) => {
|
10
16
|
const router = useRouter();
|
11
|
-
const [isLogin, isLoaded, isUserStateInit, isOnboard] = useUserStore(
|
12
|
-
(s)
|
13
|
-
|
14
|
-
|
15
|
-
|
16
|
-
|
17
|
-
|
18
|
-
|
17
|
+
const [isLogin, isLoaded, isUserStateInit, isOnboard] = useUserStore((s) => [
|
18
|
+
authSelectors.isLogin(s),
|
19
|
+
authSelectors.isLoaded(s),
|
20
|
+
s.isUserStateInit,
|
21
|
+
s.isOnboard,
|
22
|
+
]);
|
23
|
+
const isPgliteNotEnabled = useGlobalStore(systemStatusSelectors.isPgliteNotEnabled);
|
24
|
+
|
25
|
+
const navToChat = () => {
|
26
|
+
setGoToChat(true);
|
27
|
+
router.replace('/chat');
|
28
|
+
};
|
19
29
|
|
20
30
|
useEffect(() => {
|
31
|
+
// if pglite is not enabled, redirect to chat
|
32
|
+
if (isPgliteNotEnabled) {
|
33
|
+
navToChat();
|
34
|
+
return;
|
35
|
+
}
|
36
|
+
|
21
37
|
// if user auth state is not ready, wait for loading
|
22
38
|
if (!isLoaded) return;
|
23
39
|
|
24
40
|
// this mean user is definitely not login
|
25
41
|
if (!isLogin) {
|
26
|
-
|
42
|
+
navToChat();
|
27
43
|
return;
|
28
44
|
}
|
29
45
|
|
@@ -37,8 +53,8 @@ const Redirect = memo(() => {
|
|
37
53
|
}
|
38
54
|
|
39
55
|
// finally check the conversation status
|
40
|
-
|
41
|
-
}, [isUserStateInit, isLoaded, isOnboard, isLogin]);
|
56
|
+
navToChat();
|
57
|
+
}, [isUserStateInit, isLoaded, isOnboard, isLogin, isPgliteNotEnabled]);
|
42
58
|
|
43
59
|
return null;
|
44
60
|
});
|
@@ -1,11 +1,16 @@
|
|
1
|
-
|
1
|
+
'use client';
|
2
|
+
|
3
|
+
import { useState } from 'react';
|
4
|
+
|
5
|
+
import Client from './Content';
|
2
6
|
import Redirect from './Redirect';
|
3
7
|
|
4
8
|
const ScreenLoading = () => {
|
9
|
+
const [goToChat, setGoToChat] = useState(false);
|
5
10
|
return (
|
6
11
|
<>
|
7
|
-
<Client />
|
8
|
-
<Redirect />
|
12
|
+
<Client goToChat={goToChat} />
|
13
|
+
<Redirect setGoToChat={setGoToChat} />
|
9
14
|
</>
|
10
15
|
);
|
11
16
|
};
|
package/src/const/locale.ts
CHANGED
@@ -1,4 +1,4 @@
|
|
1
|
-
import {
|
1
|
+
import { supportLocales } from '@/locales/resources';
|
2
2
|
|
3
3
|
export const DEFAULT_LANG = 'en-US';
|
4
4
|
export const LOBE_LOCALE_COOKIE = 'LOBE_LOCALE';
|
@@ -7,6 +7,4 @@ export const LOBE_LOCALE_COOKIE = 'LOBE_LOCALE';
|
|
7
7
|
* Check if the language is supported
|
8
8
|
* @param locale
|
9
9
|
*/
|
10
|
-
export const isLocaleNotSupport = (locale: string) =>
|
11
|
-
return normalizeLocale(locale) === DEFAULT_LANG || !supportLocales.includes(locale);
|
12
|
-
};
|
10
|
+
export const isLocaleNotSupport = (locale: string) => !supportLocales.includes(locale);
|
@@ -10,7 +10,10 @@ export default {
|
|
10
10
|
title: '{{name}} 开始公测',
|
11
11
|
},
|
12
12
|
},
|
13
|
-
|
13
|
+
appLoading: {
|
14
|
+
goToChat: '对话页面加载中...',
|
15
|
+
initializing: '应用启动中...',
|
16
|
+
},
|
14
17
|
autoGenerate: '自动补全',
|
15
18
|
autoGenerateTooltip: '基于提示词自动补全助手描述',
|
16
19
|
autoGenerateTooltipDisabled: '请填写提示词后使用自动补全功能',
|
@@ -22,6 +25,39 @@ export default {
|
|
22
25
|
'「子话题」功能仅服务端版本可用,如需该功能,请切换到服务端部署模式或使用 LobeChat Cloud',
|
23
26
|
cancel: '取消',
|
24
27
|
changelog: '更新日志',
|
28
|
+
clientDB: {
|
29
|
+
autoInit: {
|
30
|
+
title: '初始化 PGlite 数据库',
|
31
|
+
},
|
32
|
+
error: {
|
33
|
+
desc: '非常抱歉,Pglite 数据库初始化过程发生异常。请点击 「重试」按钮。<br><br> 如仍然出错,请 <1>提交问题</1> ,我们将会第一时间帮你排查',
|
34
|
+
retry: '重试',
|
35
|
+
title: '数据库升级失败',
|
36
|
+
},
|
37
|
+
initing: {
|
38
|
+
error: '发生错误,请重试',
|
39
|
+
idle: '等待初始化...',
|
40
|
+
initializing: '正在初始化...',
|
41
|
+
loadingDependencies: `加载依赖中({{progress}}%)...`,
|
42
|
+
loadingWasmModule: '加载 WASM 模块中({{progress}}%)...',
|
43
|
+
migrating: '正在迁移数据...',
|
44
|
+
ready: '数据库已就绪',
|
45
|
+
},
|
46
|
+
modal: {
|
47
|
+
desc: '启用 PGlite 客户端数据库,在你的浏览器中持久存储聊天数据,并使用知识库等进阶特性',
|
48
|
+
enable: '立即启用',
|
49
|
+
init: {
|
50
|
+
desc: '正在初始化数据库,视网络差异可能会用时 5~30 秒不等',
|
51
|
+
title: '正在初始化 PGlite 数据库',
|
52
|
+
},
|
53
|
+
title: '开启客户端数据库',
|
54
|
+
},
|
55
|
+
ready: {
|
56
|
+
button: '立即使用',
|
57
|
+
desc: '立即想用',
|
58
|
+
title: 'PGlite 数据库已就绪',
|
59
|
+
},
|
60
|
+
},
|
25
61
|
close: '关闭',
|
26
62
|
contact: '联系我们',
|
27
63
|
copy: '复制',
|
@@ -8,7 +8,7 @@ describe('AssistantStore', () => {
|
|
8
8
|
it('should return the default index URL when no language is provided', () => {
|
9
9
|
const agentMarket = new AssistantStore();
|
10
10
|
const url = agentMarket.getAgentIndexUrl();
|
11
|
-
expect(url).toBe(baseURL);
|
11
|
+
expect(url).toBe(`${baseURL}/index.en-US.json`);
|
12
12
|
});
|
13
13
|
|
14
14
|
it('should return the index URL for a not supported language', () => {
|
@@ -20,13 +20,17 @@ describe('AssistantStore', () => {
|
|
20
20
|
it('should return the zh-CN URL for zh locale', () => {
|
21
21
|
const agentMarket = new AssistantStore();
|
22
22
|
const url = agentMarket.getAgentIndexUrl('zh' as any);
|
23
|
-
expect(url).toBe(
|
23
|
+
expect(url).toBe(
|
24
|
+
'https://registry.npmmirror.com/@lobehub/agents-index/v1/files/public/index.zh-CN.json',
|
25
|
+
);
|
24
26
|
});
|
25
27
|
|
26
28
|
it('should return the default URL for en locale', () => {
|
27
29
|
const agentMarket = new AssistantStore();
|
28
30
|
const url = agentMarket.getAgentIndexUrl('en' as any);
|
29
|
-
expect(url).toBe(
|
31
|
+
expect(url).toBe(
|
32
|
+
'https://registry.npmmirror.com/@lobehub/agents-index/v1/files/public/index.en-US.json',
|
33
|
+
);
|
30
34
|
});
|
31
35
|
|
32
36
|
it('should return the base URL if the provided language is not supported', () => {
|
@@ -38,7 +42,7 @@ describe('AssistantStore', () => {
|
|
38
42
|
it('should return the agent URL with default language when no language is provided', () => {
|
39
43
|
const agentMarket = new AssistantStore();
|
40
44
|
const url = agentMarket.getAgentUrl('agent-123');
|
41
|
-
expect(url).toBe(`${baseURL}/agent-123.json`);
|
45
|
+
expect(url).toBe(`${baseURL}/agent-123.en-US.json`);
|
42
46
|
});
|
43
47
|
|
44
48
|
it('should return the agent URL for a supported language', () => {
|
@@ -9,13 +9,13 @@ describe('PluginStore', () => {
|
|
9
9
|
it('should return the default index URL when no language is provided', () => {
|
10
10
|
const pluginStore = new PluginStore();
|
11
11
|
const url = pluginStore.getPluginIndexUrl();
|
12
|
-
expect(url).toBe(baseURL);
|
12
|
+
expect(url).toBe(`${baseURL}/index.en-US.json`);
|
13
13
|
});
|
14
14
|
|
15
15
|
it('should return the index URL for a supported language', () => {
|
16
16
|
const pluginStore = new PluginStore();
|
17
17
|
const url = pluginStore.getPluginIndexUrl('en-US');
|
18
|
-
expect(url).toBe(baseURL);
|
18
|
+
expect(url).toBe(`${baseURL}/index.en-US.json`);
|
19
19
|
});
|
20
20
|
|
21
21
|
it('should return the base URL if the provided language is not supported', () => {
|