@lobehub/chat 1.87.5 → 1.87.7
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +23 -8
- package/locales/ar/plugin.json +15 -0
- package/locales/bg-BG/models.json +23 -8
- package/locales/bg-BG/plugin.json +15 -0
- package/locales/de-DE/models.json +23 -8
- package/locales/de-DE/plugin.json +15 -0
- package/locales/en-US/models.json +23 -8
- package/locales/en-US/plugin.json +15 -0
- package/locales/es-ES/models.json +23 -8
- package/locales/es-ES/plugin.json +15 -0
- package/locales/fa-IR/models.json +23 -8
- package/locales/fa-IR/plugin.json +15 -0
- package/locales/fr-FR/models.json +23 -8
- package/locales/fr-FR/plugin.json +15 -0
- package/locales/it-IT/models.json +23 -8
- package/locales/it-IT/plugin.json +15 -0
- package/locales/ja-JP/models.json +23 -8
- package/locales/ja-JP/plugin.json +15 -0
- package/locales/ko-KR/models.json +23 -8
- package/locales/ko-KR/plugin.json +15 -0
- package/locales/nl-NL/models.json +23 -8
- package/locales/nl-NL/plugin.json +15 -0
- package/locales/pl-PL/models.json +23 -8
- package/locales/pl-PL/plugin.json +15 -0
- package/locales/pt-BR/models.json +23 -8
- package/locales/pt-BR/plugin.json +15 -0
- package/locales/ru-RU/models.json +23 -8
- package/locales/ru-RU/plugin.json +15 -0
- package/locales/tr-TR/models.json +23 -8
- package/locales/tr-TR/plugin.json +15 -0
- package/locales/vi-VN/models.json +23 -8
- package/locales/vi-VN/plugin.json +15 -0
- package/locales/zh-CN/models.json +23 -8
- package/locales/zh-CN/plugin.json +15 -0
- package/locales/zh-TW/models.json +23 -8
- package/locales/zh-TW/plugin.json +15 -0
- package/package.json +2 -2
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +1 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/BuiltinPluginTitle.tsx +59 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +33 -7
- package/src/locales/default/plugin.ts +15 -0
- package/src/tools/local-system/Render/ListFiles/Result.tsx +1 -1
- package/src/tools/local-system/systemRole.ts +1 -1
- package/src/utils/fetch/fetchSSE.ts +2 -1
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5, yeni derin düşünme modeli (m versiyonu yerel çok modlu derin akıl yürütme yeteneği ile birlikte gelir) ve matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde mükemmel performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok otoriter benchmarkta endüstri birinciliğine ulaşmakta veya yaklaşmaktadır. 128k bağlam penceresi ve 16k çıktı destekler."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "Tamamen yeni bir görsel derin düşünme modeli, daha güçlü genel çok modlu anlama ve akıl yürütme yeteneğine sahiptir; 59 kamu değerlendirme ölçütünden 37'sinde SOTA performansı elde etmiştir."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct, kod üretimi, kod anlama ve verimli geliştirme senaryoları için tasarlanmış büyük bir dil modelidir. Sektördeki en ileri 32B parametre ölçeğini kullanarak çeşitli programlama ihtiyaçlarını karşılayabilir."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "V5.5 tabanlı en son sürüm olup, önceki sürüme göre Çince ve İngilizce temel yetenekler, sohbet, fen bilgisi, sosyal bilimler, yazma, matematiksel mantık, kelime sayısı kontrolü gibi birkaç boyutta önemli iyileştirmeler göstermektedir."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "En son sürüm model (V5.5), 128K bağlam uzunluğu, matematiksel akıl yürütme, İngilizce diyalog, talimat takibi ve uzun metin anlama gibi alanlarda önemli gelişmeler göstermektedir ve GPT-4o ile karşılaştırılabilir."
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "V5.5 tabanlı en son versiyondur, önceki versiyona göre Çince ve İngilizce temel yetenekleri, sohbet, fen bilgisi, sosyal bilimler bilgisi, yazım, matematiksel mantık, kelime sayısı kontrolü gibi birkaç boyutta önemli bir gelişim göstermiştir."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "32K bağlam uzunluğu ile, Kantonca diyalog anlama konusunda GPT-4'ü aşmakta, bilgi, akıl yürütme, matematik ve kod yazma gibi birçok alanda GPT-4 Turbo ile rekabet edebilmektedir."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "Bazı performansları SenseCat-5-1202'den daha iyidir."
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "Standart sürüm model, 8K bağlam uzunluğu ile yüksek yanıt hızı sunmaktadır."
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Gemini 2.0 Flash önizleme modeli, görüntü üretimini destekler."
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Önizleme, Google'ın en iyi fiyat-performans oranına sahip modelidir ve kapsamlı özellikler sunar."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "Hala bakımını yaptığımız eski sürüm model, 7B ve 20B gibi çeşitli model parametreleri sunmaktadır."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "Hala bakımını yaptığımız InternVL2.5 sürümü, mükemmel ve istikrarlı bir performansa sahiptir. Varsayılan olarak en son yayımladığımız InternVL2.5 serisi modele işaret eder, şu anda internvl2.5-78b'ye işaret ediyor."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "En son yayımladığımız çok modlu büyük model, daha güçlü metin-görüntü anlama yeteneği ve uzun süreli görüntü anlama yeteneğine sahiptir; performansı en iyi kapalı kaynak modellerle karşılaştırılabilir. Varsayılan olarak en son yayımladığımız InternVL serisi modele işaret eder, şu anda internvl3-78b'ye işaret ediyor."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "En güçlü ve en gelişmiş modelimiz, kurumsal düzeyde karmaşık görevleri işlemek için tasarlanmıştır ve olağanüstü performans sunar."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir; öğretim ve öğrenim senaryolarında sistem talimatlarını takip edebilir, uzman bir mentor gibi davranabilir."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
|
2167
2182
|
},
|
@@ -219,8 +219,22 @@
|
|
219
219
|
"content": "Eklenti çağrılıyor...",
|
220
220
|
"plugin": "Eklenti çalışıyor..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "Dosya listesini görüntüle",
|
225
|
+
"moveLocalFiles": "Dosyaları taşı",
|
226
|
+
"readLocalFile": "Dosya içeriğini oku",
|
227
|
+
"renameLocalFile": "Yeniden adlandır",
|
228
|
+
"searchLocalFiles": "Dosyaları ara",
|
229
|
+
"writeLocalFile": "Dosyaya yaz"
|
230
|
+
}
|
231
|
+
},
|
222
232
|
"pluginList": "Eklenti Listesi",
|
223
233
|
"search": {
|
234
|
+
"apiName": {
|
235
|
+
"crawlSinglePage": "Sayfa içeriğini oku",
|
236
|
+
"search": "Sayfayı ara"
|
237
|
+
},
|
224
238
|
"config": {
|
225
239
|
"addKey": "Anahtar Ekle",
|
226
240
|
"close": "Sil",
|
@@ -280,6 +294,7 @@
|
|
280
294
|
},
|
281
295
|
"title": "Eklenti Mağazası"
|
282
296
|
},
|
297
|
+
"title": "Yerel Dosyalar",
|
283
298
|
"unknownError": "Bilinmeyen hata",
|
284
299
|
"unknownPlugin": "Bilinmeyen eklenti"
|
285
300
|
}
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 là mô hình suy nghĩ sâu mới (phiên bản m đi kèm khả năng suy luận đa phương thức nguyên bản), thể hiện xuất sắc trong các lĩnh vực chuyên môn như toán học, lập trình, suy luận khoa học và các nhiệm vụ chung như viết sáng tạo, đạt hoặc gần đạt trình độ hàng đầu trong nhiều bài kiểm tra chuẩn uy tín như AIME 2024, Codeforces, GPQA. Hỗ trợ cửa sổ ngữ cảnh 128k, đầu ra 16k."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "Mô hình tư duy sâu mới với thị giác, có khả năng hiểu và suy luận đa phương thức mạnh mẽ hơn, đạt được hiệu suất SOTA trong 37 trên 59 tiêu chuẩn đánh giá công khai."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro là mô hình đa phương tiện lớn được nâng cấp mới, hỗ trợ nhận diện hình ảnh với bất kỳ độ phân giải nào và tỷ lệ dài rộng cực đoan, tăng cường khả năng suy luận hình ảnh, nhận diện tài liệu, hiểu thông tin chi tiết và tuân thủ hướng dẫn."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct là một mô hình ngôn ngữ lớn được thiết kế đặc biệt cho việc tạo mã, hiểu mã và các tình huống phát triển hiệu quả, với quy mô 32B tham số hàng đầu trong ngành, có thể đáp ứng nhu cầu lập trình đa dạng."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "Là phiên bản mới nhất dựa trên V5.5, có sự cải thiện đáng kể so với phiên bản trước về khả năng cơ bản tiếng Trung và tiếng Anh, trò chuyện, kiến thức khoa học tự nhiên, kiến thức nhân văn, viết lách, logic toán học, kiểm soát số từ, và nhiều khía cạnh khác."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ."
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "Phiên bản mô hình mới nhất (V5.5), độ dài ngữ cảnh 128K, khả năng cải thiện đáng kể trong suy luận toán học, đối thoại tiếng Anh, theo dõi chỉ dẫn và hiểu biết văn bản dài, ngang tầm với GPT-4o."
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "Là phiên bản mới nhất dựa trên V5.5, có sự cải thiện đáng kể về khả năng cơ bản giữa tiếng Trung và tiếng Anh, trò chuyện, kiến thức khoa học, kiến thức nhân văn, viết lách, logic toán học, kiểm soát số lượng từ và một số khía cạnh khác so với phiên bản trước."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "Độ dài ngữ cảnh 32K, vượt qua GPT-4 trong hiểu biết đối thoại tiếng Quảng Đông, có thể so sánh với GPT-4 Turbo trong nhiều lĩnh vực như kiến thức, suy luận, toán học và lập trình mã."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "Một số hiệu suất vượt trội hơn SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "Mô hình phiên bản tiêu chuẩn, độ dài ngữ cảnh 8K, tốc độ phản hồi cao."
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Biến thể mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Mô hình xem trước Gemini 2.0 Flash, hỗ trợ tạo hình ảnh"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google, cung cấp đầy đủ các tính năng."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "Mô hình phiên bản cũ mà chúng tôi vẫn đang duy trì, có sẵn với nhiều tùy chọn tham số 7B và 20B."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "Phiên bản InternVL2.5 mà chúng tôi vẫn đang duy trì, có hiệu suất xuất sắc và ổn định. Mặc định chỉ đến mô hình InternVL2.5 mới nhất của chúng tôi, hiện tại chỉ đến internvl2.5-78b."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "Chúng tôi vừa phát hành mô hình lớn đa phương thức mới nhất, có khả năng hiểu hình ảnh và văn bản mạnh mẽ hơn, khả năng hiểu hình ảnh theo chuỗi thời gian dài, hiệu suất tương đương với các mô hình đóng nguồn hàng đầu. Mặc định chỉ đến mô hình InternVL mới nhất của chúng tôi, hiện tại chỉ đến internvl3-78b."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "Mô hình mạnh mẽ và tiên tiến nhất của chúng tôi, được thiết kế đặc biệt để xử lý các nhiệm vụ phức tạp cấp doanh nghiệp, với hiệu suất xuất sắc."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo hướng dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Mô hình Spark X1 sẽ được nâng cấp thêm, trên nền tảng dẫn đầu trong các nhiệm vụ toán học trong nước, đạt được hiệu quả trong các nhiệm vụ chung như suy luận, tạo văn bản, hiểu ngôn ngữ tương đương với OpenAI o1 và DeepSeek R1."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 là phiên bản nâng cấp của Yi. Nó sử dụng 500B token từ cơ sở dữ liệu chất lượng cao để tiếp tục tiền huấn luyện trên Yi, và được tinh chỉnh trên 3M mẫu đa dạng."
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "Đang gọi plugin...",
|
220
220
|
"plugin": "Plugin đang chạy..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "Xem danh sách tệp",
|
225
|
+
"moveLocalFiles": "Di chuyển tệp",
|
226
|
+
"readLocalFile": "Đọc nội dung tệp",
|
227
|
+
"renameLocalFile": "Đổi tên",
|
228
|
+
"searchLocalFiles": "Tìm kiếm tệp",
|
229
|
+
"writeLocalFile": "Ghi vào tệp"
|
230
|
+
},
|
231
|
+
"title": "Tệp cục bộ"
|
232
|
+
},
|
222
233
|
"pluginList": "Danh sách plugin",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "Đọc nội dung trang",
|
237
|
+
"search": "Tìm kiếm trang"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "Thêm khóa",
|
226
241
|
"close": "Xóa",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5全新深度思考模型 (m 版本自带原生多模态深度推理能力),在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。"
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "全新视觉深度思考模型,具备更强的通用多模态理解和推理能力,在 59 个公开评测基准中的 37 个上取得 SOTA 表现。"
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。"
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "高级 LLM,支持代码生成、推理和修复,涵盖主流编程语言。"
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "是基于V5.5的最新版本,较上版本在中英文基础能力,聊天,理科知识, 文科知识,写作,数理逻辑,字数控制 等几个维度的表现有显著提升。"
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o。"
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "是基于V5.5的最新版本,较上版本在中英文基础能力,聊天,理科知识, 文科知识,写作,数理逻辑,字数控制 等几个维度的表现有显著提升。"
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "专门为适应香港地区的对话习惯、俚语及本地知识而设计,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美。"
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "部分性能优于 SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "拟人对话标准版模型,8K上下文长度,高响应速度"
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。"
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Gemini 2.0 Flash 预览模型,支持图像生成"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,提供全面的功能。"
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5-7B-Chat 是一个开源的对话模型,基于 InternLM2 架构开发。该 7B 参数规模的模型专注于对话生成任务,支持中英双语交互。模型采用了最新的训练技术,旨在提供流畅、智能的对话体验。InternLM2.5-7B-Chat 适用于各种对话应用场景,包括但不限于智能客服、个人助手等领域"
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "InternLM2 版本最大的模型,专注于高度复杂的任务"
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "我们仍在维护的老版本模型,经过多轮迭代有着极其优异且稳定的性能,包含 7B、20B 多种模型参数量可选,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。默认指向我们最新发布的 InternLM2.5 系列模型,当前指向 internlm2.5-20b-chat。"
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型,当前指向 internlm3-8b-instruct。"
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "我们仍在维护的 InternVL2.5 版本,具备优异且稳定的性能。默认指向我们最新发布的 InternVL2.5 系列模型,当前指向 internvl2.5-78b。"
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "我们最新发布多模态大模型,具备更强的图文理解能力、长时序图片理解能力,性能比肩顶尖闭源模型。默认指向我们最新发布的 InternVL 系列模型,当前指向 internvl3-78b。"
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "我们最强大、最先进的模型,专为处理企业级复杂任务而设计,具备卓越的性能。"
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Spark X1 模型将进一步升级,在原来数学任务国内领先基础上,推理、文本生成、语言理解等通用任务实现效果对标 OpenAI o1 和 DeepSeek R1。"
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。"
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "调用插件中...",
|
220
220
|
"plugin": "插件运行中..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "查看文件列表",
|
225
|
+
"moveLocalFiles": "移动文件",
|
226
|
+
"readLocalFile": "读取文件内容",
|
227
|
+
"renameLocalFile": "重命名",
|
228
|
+
"searchLocalFiles": "搜索文件",
|
229
|
+
"writeLocalFile": "写入文件"
|
230
|
+
},
|
231
|
+
"title": "本地文件"
|
232
|
+
},
|
222
233
|
"pluginList": "插件列表",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "读取页面内容",
|
237
|
+
"search": "搜索页面"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "添加秘钥",
|
226
241
|
"close": "删除",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 全新深度思考模型 (m 版本自帶原生多模態深度推理能力),在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在 AIME 2024、Codeforces、GPQA 等多項權威基準上達到或接近業界第一梯隊水平。支持 128k 上下文窗口,16k 輸出。"
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "全新視覺深度思考模型,具備更強的通用多模態理解和推理能力,在 59 個公開評測基準中的 37 個上取得 SOTA 表現。"
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro 全新升級的多模態大模型,支持任意解析度和極端長寬比圖像識別,增強視覺推理、文檔識別、細節信息理解和指令遵循能力。"
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct 是一款專為代碼生成、代碼理解和高效開發場景設計的大型語言模型,採用了業界領先的32B參數規模,能夠滿足多樣化的程式需求。"
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "是基於V5.5的最新版本,較上版本在中英文基礎能力、聊天、理科知識、文科知識、寫作、數理邏輯、字數控制等幾個維度的表現有顯著提升。"
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "基礎版本模型 (V4),4K上下文長度,通用能力強大"
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "最新版本模型 (V5.5),128K上下文長度,在數學推理、英文對話、指令跟隨以及長文本理解等領域能力顯著提升,比肩GPT-4o"
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "是基於V5.5的最新版本,較上版本在中英文基礎能力、聊天、理科知識、文科知識、寫作、數理邏輯、字數控制等幾個維度的表現有顯著提升。"
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "32K上下文長度,在粵語的對話理解上超越了GPT-4,在知識、推理、數學及程式編寫等多個領域均能與GPT-4 Turbo相媲美"
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "部分性能優於 SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "標準版模型,8K上下文長度,高響應速度"
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Gemini 2.0 Flash 預覽模型,支持圖像生成"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 提供多場景下的智能對話解決方案。"
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "我們仍在維護的舊版本模型,有 7B、20B 多種模型參數量可選。"
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。"
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "我們最新的模型系列,有著卓越的推理性能,領跑同量級開源模型。默認指向我們最新發布的 InternLM3 系列模型"
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "我們仍在維護的 InternVL2.5 版本,具備優異且穩定的性能。默認指向我們最新發布的 InternVL2.5 系列模型,當前指向 internvl2.5-78b。"
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "我們最新發布的多模態大模型,具備更強的圖文理解能力、長時序圖片理解能力,性能比肩頂尖閉源模型。默認指向我們最新發布的 InternVL 系列模型,當前指向 internvl3-78b。"
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "我們最強大、最先進的模型,專為處理企業級複雜任務而設計,具備卓越的性能。"
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Spark X1 模型將進一步升級,在原來數學任務國內領先的基礎上,推理、文本生成、語言理解等通用任務實現效果對標 OpenAI o1 和 DeepSeek R1。"
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 是 Yi 的升級版本。它使用 500B Tokens 的高品質語料庫在 Yi 上持續進行預訓練,並在 3M 個多樣化的微調樣本上進行微調。"
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "呼叫插件中...",
|
220
220
|
"plugin": "外掛執行中..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "查看檔案列表",
|
225
|
+
"moveLocalFiles": "移動檔案",
|
226
|
+
"readLocalFile": "讀取檔案內容",
|
227
|
+
"renameLocalFile": "重新命名",
|
228
|
+
"searchLocalFiles": "搜尋檔案",
|
229
|
+
"writeLocalFile": "寫入檔案"
|
230
|
+
},
|
231
|
+
"title": "本地檔案"
|
232
|
+
},
|
222
233
|
"pluginList": "外掛清單",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "讀取頁面內容",
|
237
|
+
"search": "搜尋頁面"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "添加密鑰",
|
226
241
|
"close": "刪除",
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.87.
|
3
|
+
"version": "1.87.7",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -150,7 +150,7 @@
|
|
150
150
|
"@lobehub/chat-plugins-gateway": "^1.9.0",
|
151
151
|
"@lobehub/icons": "^2.0.0",
|
152
152
|
"@lobehub/tts": "^2.0.1",
|
153
|
-
"@lobehub/ui": "^2.1.
|
153
|
+
"@lobehub/ui": "^2.1.7",
|
154
154
|
"@modelcontextprotocol/sdk": "^1.11.4",
|
155
155
|
"@neondatabase/serverless": "^1.0.0",
|
156
156
|
"@next/third-parties": "^15.3.2",
|
@@ -0,0 +1,59 @@
|
|
1
|
+
import { createStyles } from 'antd-style';
|
2
|
+
import { ReactNode, memo } from 'react';
|
3
|
+
import { Flexbox } from 'react-layout-kit';
|
4
|
+
|
5
|
+
import Loader from '@/components/CircleLoader';
|
6
|
+
import { useChatStore } from '@/store/chat';
|
7
|
+
import { chatSelectors } from '@/store/chat/selectors';
|
8
|
+
import { shinyTextStylish } from '@/styles/loading';
|
9
|
+
|
10
|
+
export const useStyles = createStyles(({ css, token }) => ({
|
11
|
+
apiName: css`
|
12
|
+
overflow: hidden;
|
13
|
+
display: -webkit-box;
|
14
|
+
-webkit-box-orient: vertical;
|
15
|
+
-webkit-line-clamp: 1;
|
16
|
+
|
17
|
+
font-family: ${token.fontFamilyCode};
|
18
|
+
font-size: 12px;
|
19
|
+
text-overflow: ellipsis;
|
20
|
+
`,
|
21
|
+
|
22
|
+
shinyText: shinyTextStylish(token),
|
23
|
+
}));
|
24
|
+
|
25
|
+
interface BuiltinPluginTitleProps {
|
26
|
+
apiName: string;
|
27
|
+
icon?: ReactNode;
|
28
|
+
identifier: string;
|
29
|
+
index: number;
|
30
|
+
messageId: string;
|
31
|
+
title: string;
|
32
|
+
toolCallId: string;
|
33
|
+
}
|
34
|
+
|
35
|
+
const BuiltinPluginTitle = memo<BuiltinPluginTitleProps>(
|
36
|
+
({ messageId, index, apiName, toolCallId, icon, title }) => {
|
37
|
+
const { styles } = useStyles();
|
38
|
+
|
39
|
+
const isLoading = useChatStore((s) => {
|
40
|
+
const toolMessageId = chatSelectors.getMessageByToolCallId(toolCallId)(s)?.id;
|
41
|
+
const isToolCallStreaming = chatSelectors.isToolCallStreaming(messageId, index)(s);
|
42
|
+
const isPluginApiInvoking = !toolMessageId
|
43
|
+
? true
|
44
|
+
: chatSelectors.isPluginApiInvoking(toolMessageId)(s);
|
45
|
+
return isToolCallStreaming || isPluginApiInvoking;
|
46
|
+
});
|
47
|
+
|
48
|
+
return (
|
49
|
+
<Flexbox align={'center'} className={isLoading ? styles.shinyText : ''} gap={4} horizontal>
|
50
|
+
{isLoading ? <Loader /> : icon}
|
51
|
+
<Flexbox align={'baseline'} gap={4} horizontal>
|
52
|
+
<div>{title}</div>/<span className={styles.apiName}>{apiName}</span>
|
53
|
+
</Flexbox>
|
54
|
+
</Flexbox>
|
55
|
+
);
|
56
|
+
},
|
57
|
+
);
|
58
|
+
|
59
|
+
export default BuiltinPluginTitle;
|
@@ -1,8 +1,8 @@
|
|
1
1
|
import { Icon } from '@lobehub/ui';
|
2
2
|
import { createStyles } from 'antd-style';
|
3
3
|
import isEqual from 'fast-deep-equal';
|
4
|
-
import { Globe } from 'lucide-react';
|
5
|
-
import { memo } from 'react';
|
4
|
+
import { Globe, Laptop } from 'lucide-react';
|
5
|
+
import { memo, useMemo } from 'react';
|
6
6
|
import { useTranslation } from 'react-i18next';
|
7
7
|
import { Flexbox } from 'react-layout-kit';
|
8
8
|
|
@@ -13,8 +13,11 @@ import { chatSelectors } from '@/store/chat/selectors';
|
|
13
13
|
import { pluginHelpers, useToolStore } from '@/store/tool';
|
14
14
|
import { toolSelectors } from '@/store/tool/selectors';
|
15
15
|
import { shinyTextStylish } from '@/styles/loading';
|
16
|
+
import { LocalSystemManifest } from '@/tools/local-system';
|
16
17
|
import { WebBrowsingManifest } from '@/tools/web-browsing';
|
17
18
|
|
19
|
+
import BuiltinPluginTitle from './BuiltinPluginTitle';
|
20
|
+
|
18
21
|
export const useStyles = createStyles(({ css, token }) => ({
|
19
22
|
apiName: css`
|
20
23
|
overflow: hidden;
|
@@ -53,12 +56,35 @@ const ToolTitle = memo<ToolTitleProps>(({ identifier, messageId, index, apiName,
|
|
53
56
|
|
54
57
|
const pluginMeta = useToolStore(toolSelectors.getMetaById(identifier), isEqual);
|
55
58
|
|
56
|
-
|
59
|
+
const plugins = useMemo(
|
60
|
+
() => [
|
61
|
+
{
|
62
|
+
apiName: t(`search.apiName.${apiName}`, apiName),
|
63
|
+
icon: <Icon icon={Globe} size={13} />,
|
64
|
+
id: WebBrowsingManifest.identifier,
|
65
|
+
title: t('search.title'),
|
66
|
+
},
|
67
|
+
{
|
68
|
+
apiName: t(`localSystem.apiName.${apiName}`, apiName),
|
69
|
+
icon: <Icon icon={Laptop} size={13} />,
|
70
|
+
id: LocalSystemManifest.identifier,
|
71
|
+
title: t('localSystem.title'),
|
72
|
+
},
|
73
|
+
],
|
74
|
+
[],
|
75
|
+
);
|
76
|
+
|
77
|
+
const builtinPluginTitle = plugins.find((item) => item.id === identifier);
|
78
|
+
|
79
|
+
if (!!builtinPluginTitle) {
|
57
80
|
return (
|
58
|
-
<
|
59
|
-
{
|
60
|
-
|
61
|
-
|
81
|
+
<BuiltinPluginTitle
|
82
|
+
{...builtinPluginTitle}
|
83
|
+
identifier={identifier}
|
84
|
+
index={index}
|
85
|
+
messageId={messageId}
|
86
|
+
toolCallId={toolCallId}
|
87
|
+
/>
|
62
88
|
);
|
63
89
|
}
|
64
90
|
|
@@ -220,8 +220,23 @@ export default {
|
|
220
220
|
content: '调用插件中...',
|
221
221
|
plugin: '插件运行中...',
|
222
222
|
},
|
223
|
+
localSystem: {
|
224
|
+
apiName: {
|
225
|
+
listLocalFiles: '查看文件列表',
|
226
|
+
moveLocalFiles: '移动文件',
|
227
|
+
readLocalFile: '读取文件内容',
|
228
|
+
renameLocalFile: '重命名',
|
229
|
+
searchLocalFiles: '搜索文件',
|
230
|
+
writeLocalFile: '写入文件',
|
231
|
+
},
|
232
|
+
title: '本地文件',
|
233
|
+
},
|
223
234
|
pluginList: '插件列表',
|
224
235
|
search: {
|
236
|
+
apiName: {
|
237
|
+
crawlSinglePage: '读取页面内容',
|
238
|
+
search: '搜索页面',
|
239
|
+
},
|
225
240
|
config: {
|
226
241
|
addKey: '添加秘钥',
|
227
242
|
close: '删除',
|