@lobehub/chat 1.76.1 → 1.77.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/common.json +12 -1
- package/locales/ar/error.json +10 -0
- package/locales/ar/models.json +9 -6
- package/locales/ar/setting.json +28 -0
- package/locales/bg-BG/common.json +12 -1
- package/locales/bg-BG/error.json +10 -0
- package/locales/bg-BG/models.json +9 -6
- package/locales/bg-BG/setting.json +28 -0
- package/locales/de-DE/common.json +12 -1
- package/locales/de-DE/error.json +10 -0
- package/locales/de-DE/models.json +9 -6
- package/locales/de-DE/setting.json +28 -0
- package/locales/en-US/common.json +12 -1
- package/locales/en-US/error.json +10 -0
- package/locales/en-US/models.json +9 -6
- package/locales/en-US/setting.json +28 -0
- package/locales/es-ES/common.json +12 -1
- package/locales/es-ES/error.json +10 -0
- package/locales/es-ES/models.json +9 -6
- package/locales/es-ES/setting.json +28 -0
- package/locales/fa-IR/common.json +12 -1
- package/locales/fa-IR/error.json +10 -0
- package/locales/fa-IR/models.json +9 -6
- package/locales/fa-IR/setting.json +28 -0
- package/locales/fr-FR/common.json +12 -1
- package/locales/fr-FR/error.json +10 -0
- package/locales/fr-FR/models.json +9 -6
- package/locales/fr-FR/setting.json +28 -0
- package/locales/it-IT/common.json +12 -1
- package/locales/it-IT/error.json +10 -0
- package/locales/it-IT/models.json +9 -6
- package/locales/it-IT/setting.json +28 -0
- package/locales/ja-JP/common.json +12 -1
- package/locales/ja-JP/error.json +10 -0
- package/locales/ja-JP/models.json +9 -6
- package/locales/ja-JP/setting.json +28 -0
- package/locales/ko-KR/common.json +12 -1
- package/locales/ko-KR/error.json +10 -0
- package/locales/ko-KR/models.json +9 -6
- package/locales/ko-KR/setting.json +28 -0
- package/locales/nl-NL/common.json +12 -1
- package/locales/nl-NL/error.json +10 -0
- package/locales/nl-NL/models.json +9 -6
- package/locales/nl-NL/setting.json +28 -0
- package/locales/pl-PL/common.json +12 -1
- package/locales/pl-PL/error.json +10 -0
- package/locales/pl-PL/models.json +9 -6
- package/locales/pl-PL/setting.json +28 -0
- package/locales/pt-BR/common.json +12 -1
- package/locales/pt-BR/error.json +10 -0
- package/locales/pt-BR/models.json +9 -6
- package/locales/pt-BR/setting.json +28 -0
- package/locales/ru-RU/common.json +12 -1
- package/locales/ru-RU/error.json +10 -0
- package/locales/ru-RU/models.json +9 -6
- package/locales/ru-RU/setting.json +28 -0
- package/locales/tr-TR/common.json +12 -1
- package/locales/tr-TR/error.json +10 -0
- package/locales/tr-TR/models.json +9 -6
- package/locales/tr-TR/setting.json +28 -0
- package/locales/vi-VN/common.json +12 -1
- package/locales/vi-VN/error.json +10 -0
- package/locales/vi-VN/models.json +9 -6
- package/locales/vi-VN/setting.json +28 -0
- package/locales/zh-CN/common.json +12 -1
- package/locales/zh-CN/error.json +10 -0
- package/locales/zh-CN/models.json +9 -6
- package/locales/zh-CN/setting.json +28 -0
- package/locales/zh-TW/common.json +12 -1
- package/locales/zh-TW/error.json +10 -0
- package/locales/zh-TW/models.json +9 -6
- package/locales/zh-TW/setting.json +28 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +1 -1
- package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
- package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
- package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
- package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +133 -0
- package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
- package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
- package/src/components/GroupIcon/index.tsx +25 -0
- package/src/components/IndexCard/index.tsx +143 -0
- package/src/components/ProgressItem/index.tsx +75 -0
- package/src/database/repositories/dataExporter/index.test.ts +330 -0
- package/src/database/repositories/dataExporter/index.ts +216 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
- package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
- package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
- package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
- package/src/database/repositories/dataImporter/index.ts +684 -289
- package/src/features/DataImporter/ImportDetail.tsx +203 -0
- package/src/features/DataImporter/SuccessResult.tsx +22 -6
- package/src/features/DataImporter/_deprecated.ts +43 -0
- package/src/features/DataImporter/config.ts +21 -0
- package/src/features/DataImporter/index.tsx +112 -31
- package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
- package/src/features/User/UserPanel/useMenu.tsx +0 -35
- package/src/features/User/__tests__/useMenu.test.tsx +0 -2
- package/src/locales/default/common.ts +11 -0
- package/src/locales/default/error.ts +10 -0
- package/src/locales/default/setting.ts +28 -0
- package/src/server/routers/lambda/exporter.ts +25 -0
- package/src/server/routers/lambda/importer.ts +19 -3
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/services/config.ts +80 -135
- package/src/services/export/_deprecated.ts +155 -0
- package/src/services/export/client.ts +15 -0
- package/src/services/export/index.ts +6 -0
- package/src/services/export/server.ts +9 -0
- package/src/services/export/type.ts +5 -0
- package/src/services/import/_deprecated.ts +42 -1
- package/src/services/import/client.test.ts +1 -1
- package/src/services/import/client.ts +30 -1
- package/src/services/import/server.ts +70 -2
- package/src/services/import/type.ts +10 -0
- package/src/store/global/initialState.ts +1 -0
- package/src/types/export.ts +11 -0
- package/src/types/exportConfig.ts +2 -0
- package/src/types/importer.ts +15 -0
- package/src/utils/client/exportFile.ts +21 -0
- package/vitest.config.ts +1 -1
- package/src/utils/config.ts +0 -109
- /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая архитектуру смешанных экспертов (MoE) и многофункциональное внимание (MLA), в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующая эффективность вывода и обучения. После предобучения на 14.8 триллионах высококачественных токенов и последующей контролируемой донастройки и обучения с подкреплением, DeepSeek-V3 превосходит другие открытые модели и приближается к ведущим закрытым моделям."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая смешанную экспертизу (MoE), многоуровневое внимание (MLA) и архитектуру DeepSeekMoE, в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующей эффективность вывода и обучения. Модель была предварительно обучена на 14,8 триллионах высококачественных токенов и прошла контрольную донастройку и обучение с подкреплением, что позволяет DeepSeek-V3 превосходить другие открытые модели и приближаться к ведущим закрытым моделям."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 — это модель MoE, разработанная компанией Hangzhou DeepSeek AI Technology Research Co., Ltd., которая показывает выдающиеся результаты в нескольких тестах и занимает первое место среди открытых моделей в основных рейтингах. V3 по сравнению с моделью V2.5 увеличила скорость генерации в 3 раза, обеспечивая пользователям более быстрое и плавное использование."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 — это модель MoE с 671 миллиардами параметров, обладающая выдающимися способностями в программировании и технических навыках, понимании контекста и обработке длинных текстов."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Модель Gemini 2.0 Flash, оптимизированная для экономической эффективности и низкой задержки."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Модели серии Qwen-Omni поддерживают ввод данных в различных модальностях, включая видео, аудио, изображения и текст, и выводят аудио и текст."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Модели серии Qwen2.5-VL демонстрируют повышенный уровень интеллекта, практичности и адаптивности, что обеспечивает их превосходную производительность в таких сценариях, как естественные диалоги, создание контента, предоставление экспертных знаний и разработка кода. Версия 32B оптимизирована с использованием технологий обучения с подкреплением, что по сравнению с другими моделями серии Qwen2.5 VL обеспечивает более соответствующий человеческим предпочтениям стиль вывода, способность к решению сложных математических задач, а также детальное понимание и анализ изображений."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Настройки темы"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Экспортировать",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Экспорт настроек помощника",
|
355
|
+
"agentWithMessage": "Экспорт помощника и сообщений",
|
356
|
+
"all": "Экспорт глобальных настроек и всех данных помощника",
|
357
|
+
"allAgent": "Экспорт всех настроек помощника",
|
358
|
+
"allAgentWithMessage": "Экспорт всех помощников и сообщений",
|
359
|
+
"globalSetting": "Экспорт глобальных настроек"
|
360
|
+
},
|
361
|
+
"title": "Экспорт данных"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Импортировать",
|
365
|
+
"title": "Импорт данных"
|
366
|
+
},
|
367
|
+
"title": "Расширенные действия"
|
368
|
+
},
|
369
|
+
"desc": "Использование хранилища в текущем браузере",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Хранение векторов"
|
372
|
+
},
|
373
|
+
"title": "Хранение данных",
|
374
|
+
"used": "Использование хранилища"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Отправить агента",
|
351
378
|
"identifier": "Идентификатор агента",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Горячие клавиши",
|
440
467
|
"llm": "Языковая модель",
|
441
468
|
"provider": "Поставщик ИИ услуг",
|
469
|
+
"storage": "Хранение данных",
|
442
470
|
"sync": "Синхронизация с облаком",
|
443
471
|
"system-agent": "Системный агент",
|
444
472
|
"tts": "Голосовые услуги"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Asistanlar",
|
206
206
|
"skips": "Geç",
|
207
207
|
"topics": "Konular",
|
208
|
-
"type": "Tip"
|
208
|
+
"type": "Tip",
|
209
|
+
"update": "Kayıt güncellendi"
|
209
210
|
},
|
210
211
|
"title": "Veri İçe Aktar",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Yükleme Hızı"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "İçe Aktarmayı Onayla",
|
220
|
+
"tables": {
|
221
|
+
"count": "Kayıt Sayısı",
|
222
|
+
"name": "Tablo Adı"
|
223
|
+
},
|
224
|
+
"title": "Veri İçe Aktarma Önizlemesi",
|
225
|
+
"totalRecords": "Toplam {{count}} kayıt içe aktarılacak",
|
226
|
+
"totalTables": "{{count}} tablo"
|
227
|
+
},
|
217
228
|
"information": "Topluluk ve Bilgi",
|
218
229
|
"installPWA": "Tarayıcı Uygulamasını Yükle",
|
219
230
|
"lang": {
|
package/locales/tr-TR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Hata Detayı",
|
17
17
|
"title": "İstek Başarısız"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Hata nedeni: {{reason}}",
|
22
|
+
"title": "İçe aktarma başarısız"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Bu dosya daha yüksek bir sürümden dışa aktarılmıştır, lütfen en son sürüme güncelleyip tekrar içe aktarmayı deneyin",
|
26
|
+
"title": "Mevcut uygulama bu dosyayı içe aktarmayı desteklemiyor"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Otomatik olarak giriş sayfasına yönlendirileceksiniz",
|
21
31
|
"title": "Lütfen bu özelliği kullanmadan önce giriş yapın"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir ve çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejileri ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ve güçlendirilmiş öğrenme ile, DeepSeek-V3 performans açısından diğer açık kaynak modelleri geride bırakmakta ve lider kapalı kaynak modellere yaklaşmaktadır."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir. Çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıpsız yük dengeleme stratejileri ile optimizasyon yapar ve çıkarım ile eğitim verimliliğini artırır. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ile pekiştirmeli öğrenme ile geliştirilmiştir; DeepSeek-V3, performans açısından diğer açık kaynaklı modellere göre üstünlük sağlar ve lider kapalı kaynak modellere yakın bir performans sergiler."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3, Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Şirketi tarafından geliştirilen MoE modelidir, birçok değerlendirme sonucunda öne çıkmakta ve ana akım listelerde açık kaynak modeller arasında birinci sırada yer almaktadır. V3, V2.5 modeline göre üretim hızında 3 kat artış sağlamış, kullanıcılara daha hızlı ve akıcı bir deneyim sunmuştur."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324, 671B parametreye sahip bir MoE modelidir ve programlama ile teknik yetenekler, bağlam anlama ve uzun metin işleme gibi alanlarda belirgin avantajlar sunar."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro, Google'ın yüksek performanslı AI modelidir ve geniş görev genişletmeleri için tasarlanmıştır."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir, metin, görüntü ve video girişi destekler, çeşitli görevler için verimli bir şekilde ölçeklenebilir."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001, geniş uygulama alanları için destekleyen verimli bir çok modlu modeldir."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiş bir Gemini 2.0 Flash modelidir."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni serisi modeller, video, ses, resim ve metin gibi çeşitli modlarda veri girişi destekler ve ses ile metin çıktısı verir."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VL serisi modeller, doğal konuşma, içerik oluşturma, uzmanlık hizmetleri ve kod geliştirme gibi senaryolarda daha iyi performans göstermek için modelin zekâ seviyesini, pratikliğini ve uygunluğunu artırmaktadır. 32B sürümü, pekiştirmeli öğrenme teknolojisi kullanılarak optimize edilmiş olup, Qwen2.5 VL serisinin diğer modellerine kıyasla insan tercihlerine daha uygun çıktı tarzı, karmaşık matematik problemlerini çözme yeteneği ve görüntülerin ince detaylarını anlama ve akıl yürütme becerisi sunmaktadır."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Tema Ayarları"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Dışa Aktar",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Yardımcı Ayarlarını Dışa Aktar",
|
355
|
+
"agentWithMessage": "Yardımcı ve Mesajları Dışa Aktar",
|
356
|
+
"all": "Küresel Ayarları ve Tüm Yardımcı Verilerini Dışa Aktar",
|
357
|
+
"allAgent": "Tüm Yardımcı Ayarlarını Dışa Aktar",
|
358
|
+
"allAgentWithMessage": "Tüm Yardımcıları ve Mesajları Dışa Aktar",
|
359
|
+
"globalSetting": "Küresel Ayarları Dışa Aktar"
|
360
|
+
},
|
361
|
+
"title": "Veri Dışa Aktar"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "İçe Aktar",
|
365
|
+
"title": "Veri İçe Aktar"
|
366
|
+
},
|
367
|
+
"title": "Gelişmiş İşlemler"
|
368
|
+
},
|
369
|
+
"desc": "Mevcut tarayıcıdaki depolama kullanımı",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Vektör Depolama"
|
372
|
+
},
|
373
|
+
"title": "Veri Depolama",
|
374
|
+
"used": "Depolama Kullanımı"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Asistan Gönder",
|
351
378
|
"identifier": "Asistan Kimliği",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Kısayollar",
|
440
467
|
"llm": "Modeller",
|
441
468
|
"provider": "Yapay Zeka Hizmet Sağlayıcısı",
|
469
|
+
"storage": "Veri Depolama",
|
442
470
|
"sync": "Bulut Senkronizasyonu",
|
443
471
|
"system-agent": "Sistem Asistanı",
|
444
472
|
"tts": "Metin Seslendirme"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Trợ lý",
|
206
206
|
"skips": "Bỏ qua trùng lặp",
|
207
207
|
"topics": "Chủ đề",
|
208
|
-
"type": "Loại dữ liệu"
|
208
|
+
"type": "Loại dữ liệu",
|
209
|
+
"update": "Cập nhật hồ sơ"
|
209
210
|
},
|
210
211
|
"title": "Nhập dữ liệu",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Tốc độ tải lên"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Xác nhận nhập khẩu",
|
220
|
+
"tables": {
|
221
|
+
"count": "Số hồ sơ",
|
222
|
+
"name": "Tên bảng"
|
223
|
+
},
|
224
|
+
"title": "Xem trước dữ liệu nhập khẩu",
|
225
|
+
"totalRecords": "Tổng cộng sẽ nhập {{count}} hồ sơ",
|
226
|
+
"totalTables": "{{count}} bảng"
|
227
|
+
},
|
217
228
|
"information": "Cộng đồng và Thông tin",
|
218
229
|
"installPWA": "Cài đặt ứng dụng trình duyệt",
|
219
230
|
"lang": {
|
package/locales/vi-VN/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Chi tiết lỗi",
|
17
17
|
"title": "Yêu cầu thất bại"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Lý do lỗi: {{reason}}",
|
22
|
+
"title": "Nhập khẩu thất bại"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Tệp này được xuất từ phiên bản cao hơn, vui lòng thử nâng cấp lên phiên bản mới nhất trước khi nhập lại",
|
26
|
+
"title": "Ứng dụng hiện tại không hỗ trợ nhập tệp này"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Sẽ tự động chuyển hướng đến trang đăng nhập",
|
21
31
|
"title": "Vui lòng đăng nhập để sử dụng tính năng này"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng chú ý tiềm ẩn đa đầu (MLA) và kiến trúc DeepSeekMoE, kết hợp chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Thông qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát và học tăng cường, DeepSeek-V3 vượt trội hơn các mô hình mã nguồn mở khác, gần với các mô hình đóng kín hàng đầu."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng cơ cấu chú ý tiềm ẩn đa đầu (MLA) và DeepSeekMoE, kết hợp với chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát cũng như học tăng cường, DeepSeek-V3 vượt trội về hiệu suất so với các mô hình mã nguồn mở khác, gần đạt được hiệu suất của các mô hình đóng nguồn hàng đầu."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 là mô hình MoE tự phát triển của Công ty Nghiên cứu Công nghệ AI Độ Sâu Hàng Châu, có nhiều thành tích xuất sắc trong các bài kiểm tra, đứng đầu bảng xếp hạng mô hình mã nguồn mở. V3 so với mô hình V2.5 đã cải thiện tốc độ tạo ra gấp 3 lần, mang đến trải nghiệm sử dụng nhanh chóng và mượt mà hơn cho người dùng."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật trong khả năng lập trình và kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro là mô hình AI hiệu suất cao của Google, được thiết kế để mở rộng cho nhiều nhiệm vụ."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash là mô hình AI đa phương thức mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 là một mô hình đa phương thức hiệu quả, hỗ trợ mở rộng cho nhiều ứng dụng."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Biến thể mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Một mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Mô hình Qwen-Omni hỗ trợ đầu vào từ nhiều loại dữ liệu khác nhau, bao gồm video, âm thanh, hình ảnh và văn bản, và xuất ra âm thanh và văn bản."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Dòng mô hình Qwen2.5-VL đã nâng cao mức độ thông minh, tính thực tế và khả năng áp dụng, giúp mô hình hoạt động hiệu quả hơn trong các tình huống như đối thoại tự nhiên, sáng tạo nội dung, cung cấp dịch vụ kiến thức chuyên môn và phát triển mã. Phiên bản 32B đã sử dụng công nghệ học tăng cường để tối ưu hóa mô hình, so với các mô hình khác trong dòng Qwen2.5 VL, cung cấp phong cách đầu ra phù hợp hơn với sở thích của con người, khả năng suy luận các vấn đề toán học phức tạp, cũng như khả năng hiểu và suy luận chi tiết về hình ảnh."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Cài đặt chủ đề"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Xuất",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Xuất cài đặt trợ lý",
|
355
|
+
"agentWithMessage": "Xuất trợ lý và tin nhắn",
|
356
|
+
"all": "Xuất cài đặt toàn cầu và tất cả dữ liệu trợ lý",
|
357
|
+
"allAgent": "Xuất tất cả cài đặt trợ lý",
|
358
|
+
"allAgentWithMessage": "Xuất tất cả trợ lý và tin nhắn",
|
359
|
+
"globalSetting": "Xuất cài đặt toàn cầu"
|
360
|
+
},
|
361
|
+
"title": "Xuất dữ liệu"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Nhập",
|
365
|
+
"title": "Nhập dữ liệu"
|
366
|
+
},
|
367
|
+
"title": "Thao tác nâng cao"
|
368
|
+
},
|
369
|
+
"desc": "Dung lượng lưu trữ trong trình duyệt hiện tại",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Lưu trữ vector"
|
372
|
+
},
|
373
|
+
"title": "Lưu trữ dữ liệu",
|
374
|
+
"used": "Dung lượng lưu trữ"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Gửi trợ lý",
|
351
378
|
"identifier": "Nhận dạng trợ lý",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Phím tắt",
|
440
467
|
"llm": "Mô hình ngôn ngữ",
|
441
468
|
"provider": "Nhà cung cấp AI",
|
469
|
+
"storage": "Lưu trữ dữ liệu",
|
442
470
|
"sync": "Đồng bộ trên đám mây",
|
443
471
|
"system-agent": "Trợ lý hệ thống",
|
444
472
|
"tts": "Dịch vụ giọng nói"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "助手",
|
206
206
|
"skips": "重复跳过",
|
207
207
|
"topics": "话题",
|
208
|
-
"type": "数据类型"
|
208
|
+
"type": "数据类型",
|
209
|
+
"update": "记录更新"
|
209
210
|
},
|
210
211
|
"title": "导入数据",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "上传速度"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "确认导入",
|
220
|
+
"tables": {
|
221
|
+
"count": "记录数",
|
222
|
+
"name": "表名"
|
223
|
+
},
|
224
|
+
"title": "导入数据预览",
|
225
|
+
"totalRecords": "总计将导入 {{count}} 条记录",
|
226
|
+
"totalTables": "{{count}} 个表"
|
227
|
+
},
|
217
228
|
"information": "社区与资讯",
|
218
229
|
"installPWA": "安装浏览器应用 (PWA)",
|
219
230
|
"lang": {
|
package/locales/zh-CN/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "错误详情",
|
17
17
|
"title": "请求失败"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "出错原因: {{reason}}",
|
22
|
+
"title": "导入失败"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "该文件由更高版本导出,请尝试升级到最新版本后再重新导入",
|
26
|
+
"title": "当前应用不支持导入该文件"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "即将自动跳转到登录页面",
|
21
31
|
"title": "请登录后使用该功能"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 是一个强大的专家混合(MoE)语言模型,拥有总计 6710 亿参数,每个 token 激活 370 亿参数。"
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 为671B 参数 MoE 模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。"
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro 是Google的高性能AI模型,专为广泛任务扩展而设计。"
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。"
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。"
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。"
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Math 模型具有强大的数学解题能力。"
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。"
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。32B 版本使用了强化学习技术优化模型,与 Qwen2.5 VL 系列的其它模型相比,提供了更符合人类偏好的输出风格、复杂数学问题的推理能力,以及图像细粒度理解与推理能力。"
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "主题设置"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "导出",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "导出助手设定",
|
355
|
+
"agentWithMessage": "导出助手和消息",
|
356
|
+
"all": "导出全局设置和所有助手数据",
|
357
|
+
"allAgent": "导出所有助手设定",
|
358
|
+
"allAgentWithMessage": "导出所有助手和消息",
|
359
|
+
"globalSetting": "导出全局设置"
|
360
|
+
},
|
361
|
+
"title": "导出数据"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "导入",
|
365
|
+
"title": "导入数据"
|
366
|
+
},
|
367
|
+
"title": "高级操作"
|
368
|
+
},
|
369
|
+
"desc": "当前浏览器中的存储用量",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "向量存储"
|
372
|
+
},
|
373
|
+
"title": "数据存储",
|
374
|
+
"used": "存储用量"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "提交助手",
|
351
378
|
"identifier": "identifier 助手标识符",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "快捷键",
|
440
467
|
"llm": "语言模型",
|
441
468
|
"provider": "AI 服务商",
|
469
|
+
"storage": "数据存储",
|
442
470
|
"sync": "云端同步",
|
443
471
|
"system-agent": "系统助手",
|
444
472
|
"tts": "语音服务"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "助手",
|
206
206
|
"skips": "重複跳過",
|
207
207
|
"topics": "話題",
|
208
|
-
"type": "資料類型"
|
208
|
+
"type": "資料類型",
|
209
|
+
"update": "記錄更新"
|
209
210
|
},
|
210
211
|
"title": "匯入資料",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "上傳速度"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "確認導入",
|
220
|
+
"tables": {
|
221
|
+
"count": "記錄數",
|
222
|
+
"name": "表名"
|
223
|
+
},
|
224
|
+
"title": "導入數據預覽",
|
225
|
+
"totalRecords": "總計將導入 {{count}} 條記錄",
|
226
|
+
"totalTables": "{{count}} 個表"
|
227
|
+
},
|
217
228
|
"information": "社群與資訊",
|
218
229
|
"installPWA": "安裝瀏覽器應用 (PWA)",
|
219
230
|
"lang": {
|
package/locales/zh-TW/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "錯誤詳情",
|
17
17
|
"title": "請求失敗"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "出錯原因: {{reason}}",
|
22
|
+
"title": "匯入失敗"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "該檔案由更高版本匯出,請嘗試升級到最新版本後再重新匯入",
|
26
|
+
"title": "當前應用不支援匯入該檔案"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "即將自動跳轉到登入頁面",
|
21
31
|
"title": "請登入後使用該功能"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。透過在 14.8 萬億高質量tokens上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。透過在 14.8 萬兆高品質 tokens 上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先的閉源模型。"
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview 是一款獨具創新的自然語言處理模型,能夠高效處理複雜的對話生成與上下文理解任務。"
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 為杭州深度求索人工智能基礎技術研究有限公司自研的 MoE 模型,其多項評測成績突出,在主流榜單中位列開源模型榜首。V3 相較 V2.5 模型生成速度實現 3 倍提升,為用戶帶來更加迅速流暢的使用體驗。"
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 為 671B 參數的 MoE 模型,在程式設計與技術能力、上下文理解與長文本處理等方面優勢突出。"
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,專為廣泛任務擴展而設計。"
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 是一款高效的多模態模型,支持廣泛應用的擴展。"
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "一個 Gemini 2.0 Flash 模型,針對成本效益和低延遲等目標進行了優化。"
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Math模型具有強大的數學解題能力。"
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni 系列模型支援輸入多種模態的數據,包括視頻、音頻、圖片、文本,並輸出音頻與文本。"
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VL 系列模型提升了模型的智能水準、實用性和適用性,使其在自然對話、內容創作、專業知識服務及程式碼開發等場景中表現更優。32B 版本使用了強化學習技術優化模型,與 Qwen2.5 VL 系列的其他模型相比,提供了更符合人類偏好的輸出風格、複雜數學問題的推理能力,以及影像細粒度理解與推理能力。"
|
1723
1726
|
},
|