@lobehub/chat 1.74.1 → 1.74.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/README.md +2 -2
- package/README.zh-CN.md +2 -2
- package/changelog/v1.json +18 -0
- package/docs/developer/database-schema.dbml +54 -2
- package/docs/self-hosting/environment-variables/model-provider.mdx +9 -7
- package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +9 -7
- package/locales/ar/common.json +51 -0
- package/locales/ar/models.json +69 -3
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/common.json +51 -0
- package/locales/bg-BG/models.json +69 -3
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/common.json +51 -0
- package/locales/de-DE/models.json +69 -3
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/common.json +51 -0
- package/locales/en-US/models.json +69 -3
- package/locales/en-US/providers.json +6 -3
- package/locales/es-ES/common.json +51 -0
- package/locales/es-ES/models.json +69 -3
- package/locales/es-ES/providers.json +6 -0
- package/locales/fa-IR/common.json +51 -0
- package/locales/fa-IR/models.json +69 -3
- package/locales/fa-IR/providers.json +6 -0
- package/locales/fr-FR/common.json +51 -0
- package/locales/fr-FR/models.json +69 -3
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/common.json +51 -0
- package/locales/it-IT/models.json +69 -3
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/common.json +51 -0
- package/locales/ja-JP/models.json +78 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/common.json +51 -0
- package/locales/ko-KR/models.json +69 -3
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/common.json +51 -0
- package/locales/nl-NL/models.json +69 -3
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/common.json +51 -0
- package/locales/pl-PL/models.json +69 -3
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/common.json +51 -0
- package/locales/pt-BR/models.json +69 -3
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/common.json +51 -0
- package/locales/ru-RU/models.json +69 -3
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/common.json +51 -0
- package/locales/tr-TR/models.json +69 -3
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/common.json +51 -0
- package/locales/vi-VN/models.json +69 -3
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/common.json +53 -2
- package/locales/zh-CN/models.json +79 -13
- package/locales/zh-CN/providers.json +6 -4
- package/locales/zh-TW/common.json +51 -0
- package/locales/zh-TW/models.json +81 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +1 -1
- package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +9 -1
- package/src/config/aiModels/qwen.ts +4 -4
- package/src/config/aiModels/volcengine.ts +2 -2
- package/src/database/client/db.ts +102 -11
- package/src/database/client/migrations.json +38 -8
- package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
- package/src/database/migrations/meta/0018_snapshot.json +4212 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/drizzleMigration.ts +23 -0
- package/src/database/schemas/agent.ts +48 -31
- package/src/database/schemas/file.ts +32 -16
- package/src/database/schemas/message.ts +91 -54
- package/src/database/schemas/rag.ts +65 -32
- package/src/database/schemas/session.ts +6 -3
- package/src/database/schemas/topic.ts +31 -24
- package/src/features/InitClientDB/ErrorResult.tsx +53 -32
- package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
- package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
- package/src/features/ModelSwitchPanel/index.tsx +13 -7
- package/src/locales/default/common.ts +53 -1
- package/src/store/global/actions/clientDb.ts +19 -3
- package/src/store/global/initialState.ts +6 -1
- package/src/store/global/selectors/clientDB.ts +43 -0
- package/src/store/global/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
- package/src/types/clientDB.ts +13 -0
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Запуск моделей машинного обучения на базе серверов GPU в глобальной сети Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere предлагает вам самые современные многоязычные модели, продвинутые функции поиска и AI-рабочее пространство, специально разработанное для современных предприятий — всё это интегрировано в одной безопасной платформе."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud позволяет разработчикам легко использовать лучшие открытые модели и наслаждаться самой быстрой скоростью вывода."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API предоставляет доступ к серии моделей DeepSeek, которые могут подключаться к сети по мере необходимости, включая стандартную и быструю версии, поддерживающие выбор моделей с различными параметрами."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseNova, опираясь на мощную инфраструктуру SenseTime, предлагает эффективные и удобные услуги полного стека больших моделей."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Üzgünüz, Pglite veritabanı başlatma sırasında bir hata oluştu. Lütfen düğmeye tıklayarak tekrar deneyin. Eğer birden fazla denemeden sonra hala hata alıyorsanız, lütfen <1>bir sorun bildirin</1>, size en kısa sürede yardımcı olacağız.",
|
43
43
|
"detail": "Hata Nedeni: [{{type}}] {{message}}. Ayrıntılar aşağıda:",
|
44
|
+
"detailTitle": "Hata Nedeni",
|
45
|
+
"report": "Sorunu Bildir",
|
44
46
|
"retry": "Tekrar Dene",
|
47
|
+
"selfSolve": "Kendin Çöz",
|
45
48
|
"title": "Veritabanı başlatma hatası"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Hemen Kullan",
|
81
84
|
"desc": "Hemen kullanmak istiyorum",
|
82
85
|
"title": "PGlite veritabanı hazır"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Yedekle",
|
90
|
+
"backupSuccess": "Yedekleme Başarılı",
|
91
|
+
"desc": "Mevcut veritabanındaki kritik verileri dışa aktar",
|
92
|
+
"export": "Tüm Verileri Dışa Aktar",
|
93
|
+
"exportDesc": "Dışa aktarılan veriler JSON formatında kaydedilecektir, sonraki kurtarma veya analiz için kullanılabilir.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Uyarı",
|
96
|
+
"alertDesc": "Aşağıdaki işlemler veri kaybına neden olabilir. Devam etmeden önce önemli verilerinizi yedeklediğinizden emin olun.",
|
97
|
+
"button": "Veritabanını Tamamen Sıfırla (Tüm Verileri Sil)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Bu işlem tüm verileri silecektir ve geri alınamaz, devam etmek istediğinizi onaylıyor musunuz?",
|
100
|
+
"title": "Veritabanını Sıfırlamayı Onayla"
|
101
|
+
},
|
102
|
+
"desc": "Geri alınamaz bir durumda veritabanını sıfırla",
|
103
|
+
"title": "Veritabanı Sıfırlama"
|
104
|
+
},
|
105
|
+
"restore": "Geri Yükle",
|
106
|
+
"restoreSuccess": "Geri Yükleme Başarılı",
|
107
|
+
"title": "Veri Yedekleme"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Oluşturulma Zamanı",
|
111
|
+
"migratedAt": "Göç Tamamlanma Zamanı",
|
112
|
+
"sql": "Göç SQL",
|
113
|
+
"title": "Göç Durumu"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Göç durumunu manuel olarak yönet",
|
117
|
+
"runSQL": "Özel Çalıştır",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Temizle",
|
120
|
+
"desc": "Veritabanı sorunlarını düzeltmek için özel SQL ifadelerini çalıştır",
|
121
|
+
"markFinished": "Tamamlandı Olarak İşaretle",
|
122
|
+
"placeholder": "SQL ifadesini girin...",
|
123
|
+
"result": "Çalıştırma Sonucu",
|
124
|
+
"run": "Çalıştır",
|
125
|
+
"title": "SQL Çalıştırıcı"
|
126
|
+
},
|
127
|
+
"title": "Göç Kontrolü"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Yedekleme ve Geri Yükleme",
|
131
|
+
"diagnosis": "Tanı",
|
132
|
+
"repair": "Onarım"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Kapat",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B, Baichuan Zhi Neng tarafından geliştirilen 130 milyar parametreye sahip açık kaynaklı ticari bir büyük dil modelidir ve yetkili Çince ve İngilizce benchmark'larda aynı boyuttaki en iyi sonuçları elde etmiştir."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse, talimat ayarlama, veri arbitrajı, tercih eğitimi ve model birleştirme yenilikleri ile tek dilli modellerin performansını zorlamak için tasarlanmış yüksek performanslı bir 32B çok dilli modeldir. 23 dili desteklemektedir."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse, talimat ayarlama, veri arbitrajı, tercih eğitimi ve model birleştirme yenilikleri ile tek dilli modellerin performansını zorlamak için tasarlanmış yüksek performanslı bir 8B çok dilli modeldir. 23 dili desteklemektedir."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision, dil, metin ve görüntü yeteneklerinin birden fazla anahtar ölçütünde mükemmel performans sergileyen en son teknoloji çok modlu bir modeldir. 23 dili desteklemektedir. Bu 32 milyar parametreli versiyon, en son teknoloji çok dilli performansa odaklanmaktadır."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision, dil, metin ve görüntü yeteneklerinin birden fazla anahtar ölçütünde mükemmel performans sergileyen en son teknoloji çok modlu bir modeldir. Bu 8 milyar parametreli versiyon, düşük gecikme ve en iyi performansa odaklanmaktadır."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3, rol yapma ve duygusal destek için tasarlanmış, ultra uzun çok turlu bellek ve kişiselleştirilmiş diyalog desteği sunan bir modeldir, geniş bir uygulama yelpazesine sahiptir."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Dil görevlerinde yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve temel üretim modelimize göre daha uzun bir bağlam uzunluğuna sahiptir."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A, şimdiye kadar geliştirdiğimiz en güçlü modeldir ve araç kullanımı, ajan, bilgi artırımlı üretim (RAG) ve çok dilli uygulama senaryolarında mükemmel performans sergilemektedir. Command A, 256K bağlam uzunluğuna sahiptir, yalnızca iki GPU ile çalıştırılabilir ve Command R+ 08-2024'e kıyasla %150 daha yüksek bir verimlilik sunar."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Neredeyse aynı güçte, ancak daha hızlı olan daha küçük ve daha hızlı bir Command versiyonudur."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Ana sürüm güncellemeleri arasındaki süreyi kısaltmak için Command modelinin her gece sürümünü sunuyoruz. command-light serisi için bu sürüm command-light-nightly olarak adlandırılmaktadır. Lütfen dikkat edin, command-light-nightly en güncel, en deneysel ve (muhtemelen) kararsız sürümdür. Her gece sürümü düzenli olarak güncellenir ve önceden bildirilmez, bu nedenle üretim ortamında kullanılması önerilmez."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Ana sürüm güncellemeleri arasındaki süreyi kısaltmak için Command modelinin her gece sürümünü sunuyoruz. Command serisi için bu sürüm command-cightly olarak adlandırılmaktadır. Lütfen dikkat edin, command-nightly en güncel, en deneysel ve (muhtemelen) kararsız sürümdür. Her gece sürümü düzenli olarak güncellenir ve önceden bildirilmez, bu nedenle üretim ortamında kullanılması önerilmez."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R, dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve önceki modellere göre daha uzun bir bağlam uzunluğuna sahiptir. Kod üretimi, bilgi artırımlı üretim (RAG), araç kullanımı ve ajan gibi karmaşık iş akışları için kullanılabilir."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024, Command R modelinin güncellenmiş versiyonudur ve 2024 yılının Ağustos ayında piyasaya sürülmüştür."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+, gerçek işletme senaryoları ve karmaşık uygulamalar için tasarlanmış yüksek performanslı bir büyük dil modelidir."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+, dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve önceki modellere göre daha uzun bir bağlam uzunluğuna sahiptir. Karmaşık RAG iş akışları ve çok adımlı araç kullanımı için en uygunudur."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024, 2024 yılının Aralık ayında piyasaya sürülen küçük ve verimli bir güncellenmiş versiyondur. RAG, araç kullanımı, ajan gibi karmaşık akıl yürütme ve çok adımlı işlemler gerektiren görevlerde mükemmel performans sergilemektedir."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi destekler, çözünürlüğü birinci neslin 4 katıdır."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B hızlı versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, model performansını korurken daha hızlı yanıt süreleri sunar."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B standart versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, en güncel bilgilere ihtiyaç duyan diyalog ve metin işleme görevleri için uygundur."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 - DeepSeek paketindeki daha büyük ve daha akıllı model - Llama 70B mimarisine damıtılmıştır. Referans testleri ve insan değerlendirmelerine dayanarak, bu model orijinal Llama 70B'den daha akıllıdır, özellikle matematik ve gerçeklik doğruluğu gerektiren görevlerde mükemmel performans sergilemektedir."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "DeepSeek-R1-Distill serisi modeller, bilgi damıtma teknolojisi ile DeepSeek-R1 tarafından üretilen örneklerin Qwen, Llama gibi açık kaynak modeller üzerinde ince ayar yapılmasıyla elde edilmiştir."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "14 Şubat 2025'te ilk kez piyasaya sürülen bu model, Qianfan büyük model geliştirme ekibi tarafından Llama3_70B temel modeli (Meta Llama ile oluşturulmuştur) kullanılarak damıtılmıştır ve damıtma verilerine Qianfan'ın metinleri de eklenmiştir."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "14 Şubat 2025'te ilk kez piyasaya sürülen bu model, Qianfan büyük model geliştirme ekibi tarafından Llama3_8B temel modeli (Meta Llama ile oluşturulmuştur) kullanılarak damıtılmıştır ve damıtma verilerine Qianfan'ın metinleri de eklenmiştir."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "DeepSeek-R1-Distill serisi modeller, bilgi damıtma teknolojisi ile DeepSeek-R1 tarafından üretilen örneklerin Qwen, Llama gibi açık kaynak modeller üzerinde ince ayar yapılmasıyla elde edilmiştir."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "DeepSeek-R1-Distill serisi modeller, bilgi damıtma teknolojisi ile DeepSeek-R1 tarafından üretilen örneklerin Qwen, Llama gibi açık kaynak modeller üzerinde ince ayar yapılmasıyla elde edilmiştir."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 tam hızlı versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, 671B parametrenin güçlü yetenekleri ile daha hızlı yanıt sürelerini birleştirir."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 tam sürümü, 671B parametreye sahip olup, gerçek zamanlı çevrimiçi arama desteği ile daha güçlü anlama ve üretim yeteneklerine sahiptir."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "DeepSeek tarafından sunulan bir akıl yürütme modeli. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai cevabın doğruluğunu artırır."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "Wenxin büyük modeli 4.5, Baidu tarafından geliştirilen yeni nesil yerel çok modlu temel büyük modeldir. Birden fazla modun birleşik modellemesi ile işbirlikçi optimizasyon sağlar, çok modlu anlama yeteneği mükemmeldir; dil yetenekleri, anlama, üretim, mantık ve hafıza yetenekleri önemli ölçüde geliştirilmiştir, yanılsamaları ortadan kaldırma, mantıksal akıl yürütme ve kod yetenekleri belirgin şekilde artmıştır."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Baidu tarafından geliştirilen dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryolarına uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimat takibi yeteneği daha güçlü, çıkarım performansı daha iyidir."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Hunyuan-turbo 2024 yılı 11 ay 20 günü sabit sürümü, hunyuan-turbo ve hunyuan-turbo-latest arasında bir versiyon."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Bu sürümde yapılan optimizasyonlar: veri talimatı ölçeklendirme, modelin genel genelleme yeteneğini büyük ölçüde artırma; matematik, kodlama, mantıksal akıl yürütme yeteneklerini büyük ölçüde artırma; metin anlama ve kelime anlama ile ilgili yetenekleri optimize etme; metin oluşturma içerik üretim kalitesini optimize etme."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "Hunyuan'ın yeni nesil görsel dil amiral modeli, tamamen yeni bir karışık uzman modeli (MoE) yapısını benimser; metin ve görüntü anlama ile ilgili temel tanıma, içerik oluşturma, bilgi sorgulama, analiz ve akıl yürütme gibi yeteneklerde bir önceki nesil modele göre kapsamlı bir iyileştirme sağlar."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 sabit versiyonu, ön eğitim tabanlı token sayısını yükseltmiştir; matematik/lojik/kod gibi düşünme yeteneklerini geliştirmiştir; Çince ve İngilizce genel deneyim kalitesini artırmıştır, metin oluşturma, metin anlama, bilgi sorgulama, sohbet gibi alanlarda."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Matematik çözümleme adımlarının stilini birleştirerek, matematik çok aşamalı soru-cevap süreçlerini güçlendirir. Metin oluşturma, yanıt stilini optimize eder, AI hissini ortadan kaldırır ve edebi bir dokunuş ekler."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS, daha güçlü düşünme yeteneği ve daha iyi deneyim sunan en son sürümüdür."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Cloudflare'ın küresel ağı üzerinde sunucusuz GPU destekli makine öğrenimi modelleri çalıştırın."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere, en son çok dilli modelleri, gelişmiş arama işlevselliğini ve modern işletmeler için özel olarak tasarlanmış AI çalışma alanını sunar - hepsi güvenli bir platformda entegre edilmiştir."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud, geliştiricilerin en iyi açık kaynak modellerini kolayca kullanmalarını ve en hızlı çıkarım hızından yararlanmalarını sağlar."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API, ihtiyaç duyduğunuzda çevrimiçi olabilen DeepSeek serisi modellere erişim sağlar; standart ve hızlı sürümler dahil olmak üzere çeşitli parametre ölçeklerinde model seçimini destekler."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseTime, güçlü altyapısına dayanarak, verimli ve kullanımı kolay tam yığın büyük model hizmetleri sunar."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Xin lỗi, đã xảy ra sự cố trong quá trình khởi tạo cơ sở dữ liệu Pglite. Vui lòng nhấn nút để thử lại. Nếu vẫn gặp lỗi sau nhiều lần thử, vui lòng <1>gửi vấn đề</1>, chúng tôi sẽ hỗ trợ bạn kiểm tra ngay lập tức.",
|
43
43
|
"detail": "Lý do lỗi: [{{type}}] {{message}},Chi tiết như sau:",
|
44
|
+
"detailTitle": "Nguyên nhân lỗi",
|
45
|
+
"report": "Phản hồi vấn đề",
|
44
46
|
"retry": "Thử lại",
|
47
|
+
"selfSolve": "Tự giải quyết",
|
45
48
|
"title": "Khởi tạo cơ sở dữ liệu thất bại"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Sử dụng ngay",
|
81
84
|
"desc": "Sử dụng ngay",
|
82
85
|
"title": "Cơ sở dữ liệu PGlite đã sẵn sàng"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Sao lưu",
|
90
|
+
"backupSuccess": "Sao lưu thành công",
|
91
|
+
"desc": "Xuất dữ liệu quan trọng từ cơ sở dữ liệu hiện tại",
|
92
|
+
"export": "Xuất toàn bộ dữ liệu",
|
93
|
+
"exportDesc": "Dữ liệu xuất ra sẽ được lưu ở định dạng JSON, có thể sử dụng cho việc phục hồi hoặc phân tích sau này.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Cảnh báo",
|
96
|
+
"alertDesc": "Các thao tác dưới đây có thể dẫn đến mất dữ liệu. Vui lòng đảm bảo bạn đã sao lưu dữ liệu quan trọng trước khi tiếp tục.",
|
97
|
+
"button": "Đặt lại hoàn toàn cơ sở dữ liệu (xóa tất cả dữ liệu)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Thao tác này sẽ xóa tất cả dữ liệu và không thể khôi phục, bạn có chắc chắn muốn tiếp tục không?",
|
100
|
+
"title": "Xác nhận đặt lại cơ sở dữ liệu"
|
101
|
+
},
|
102
|
+
"desc": "Đặt lại cơ sở dữ liệu trong trường hợp không thể phục hồi",
|
103
|
+
"title": "Đặt lại cơ sở dữ liệu"
|
104
|
+
},
|
105
|
+
"restore": "Khôi phục",
|
106
|
+
"restoreSuccess": "Khôi phục thành công",
|
107
|
+
"title": "Sao lưu dữ liệu"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Thời gian tạo",
|
111
|
+
"migratedAt": "Thời gian hoàn thành di chuyển",
|
112
|
+
"sql": "SQL di chuyển",
|
113
|
+
"title": "Trạng thái di chuyển"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Quản lý trạng thái di chuyển thủ công",
|
117
|
+
"runSQL": "Thực thi tùy chỉnh",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Xóa sạch",
|
120
|
+
"desc": "Thực thi câu lệnh SQL tùy chỉnh để sửa chữa vấn đề cơ sở dữ liệu",
|
121
|
+
"markFinished": "Đánh dấu là đã hoàn thành",
|
122
|
+
"placeholder": "Nhập câu lệnh SQL...",
|
123
|
+
"result": "Kết quả thực thi",
|
124
|
+
"run": "Thực thi",
|
125
|
+
"title": "Trình thực thi SQL"
|
126
|
+
},
|
127
|
+
"title": "Kiểm soát di chuyển"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Sao lưu và khôi phục",
|
131
|
+
"diagnosis": "Chẩn đoán",
|
132
|
+
"repair": "Sửa chữa"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Đóng",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B là mô hình ngôn ngữ lớn mã nguồn mở có thể thương mại hóa với 130 tỷ tham số, được phát triển bởi Baichuan Intelligence, đã đạt được hiệu suất tốt nhất trong cùng kích thước trên các benchmark tiếng Trung và tiếng Anh."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse là một mô hình đa ngôn ngữ hiệu suất cao 32B, được thiết kế để thách thức hiệu suất của các mô hình đơn ngôn ngữ thông qua việc tinh chỉnh theo chỉ dẫn, khai thác dữ liệu, đào tạo theo sở thích và hợp nhất mô hình. Nó hỗ trợ 23 ngôn ngữ."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse là một mô hình đa ngôn ngữ hiệu suất cao 8B, được thiết kế để thách thức hiệu suất của các mô hình đơn ngôn ngữ thông qua việc tinh chỉnh theo chỉ dẫn, khai thác dữ liệu, đào tạo theo sở thích và hợp nhất mô hình. Nó hỗ trợ 23 ngôn ngữ."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision là một mô hình đa phương tiện tiên tiến, thể hiện xuất sắc trên nhiều tiêu chuẩn chính về khả năng ngôn ngữ, văn bản và hình ảnh. Phiên bản 32 tỷ tham số này tập trung vào hiệu suất đa ngôn ngữ tiên tiến."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision là một mô hình đa phương tiện tiên tiến, thể hiện xuất sắc trên nhiều tiêu chuẩn chính về khả năng ngôn ngữ, văn bản và hình ảnh. Phiên bản 8 tỷ tham số này tập trung vào độ trễ thấp và hiệu suất tối ưu."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 được thiết kế đặc biệt cho vai trò và đồng hành cảm xúc, hỗ trợ trí nhớ nhiều vòng siêu dài và đối thoại cá nhân hóa, ứng dụng rộng rãi."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ là mô hình tối ưu hóa RAG hiện đại, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Một mô hình đối thoại tuân theo chỉ dẫn, thể hiện chất lượng cao và đáng tin cậy trong các nhiệm vụ ngôn ngữ, đồng thời có độ dài ngữ cảnh dài hơn so với mô hình sinh cơ bản của chúng tôi."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A là mô hình mạnh nhất mà chúng tôi đã phát triển cho đến nay, thể hiện xuất sắc trong việc sử dụng công cụ, đại lý, tạo ra thông tin tăng cường (RAG) và các ứng dụng đa ngôn ngữ. Command A có độ dài ngữ cảnh 256K, chỉ cần hai GPU để vận hành, và so với Command R+ 08-2024, hiệu suất tăng 150%."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Một phiên bản Command nhỏ hơn, nhanh hơn, gần như mạnh mẽ tương đương nhưng có tốc độ nhanh hơn."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Để rút ngắn khoảng cách thời gian giữa các phiên bản chính, chúng tôi đã phát hành phiên bản hàng đêm của mô hình Command. Đối với dòng command-light, phiên bản này được gọi là command-light-nightly. Xin lưu ý rằng command-light-nightly là phiên bản mới nhất, mang tính thử nghiệm cao và (có thể) không ổn định. Phiên bản hàng đêm sẽ được cập nhật định kỳ mà không có thông báo trước, vì vậy không nên sử dụng trong môi trường sản xuất."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Để rút ngắn khoảng cách thời gian giữa các phiên bản chính, chúng tôi đã phát hành phiên bản hàng đêm của mô hình Command. Đối với dòng Command, phiên bản này được gọi là command-cightly. Xin lưu ý rằng command-nightly là phiên bản mới nhất, mang tính thử nghiệm cao và (có thể) không ổn định. Phiên bản hàng đêm sẽ được cập nhật định kỳ mà không có thông báo trước, vì vậy không nên sử dụng trong môi trường sản xuất."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R là một mô hình đối thoại tuân theo chỉ dẫn, thể hiện chất lượng cao hơn và đáng tin cậy hơn trong các nhiệm vụ ngôn ngữ, đồng thời có độ dài ngữ cảnh dài hơn so với các mô hình trước đây. Nó có thể được sử dụng cho các quy trình phức tạp như tạo mã, tạo ra thông tin tăng cường (RAG), sử dụng công cụ và đại lý."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 là phiên bản cập nhật của mô hình Command R, được phát hành vào tháng 8 năm 2024."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ là một mô hình ngôn ngữ lớn hiệu suất cao, được thiết kế cho các tình huống doanh nghiệp thực tế và ứng dụng phức tạp."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ là một mô hình đối thoại tuân theo chỉ dẫn, thể hiện chất lượng cao hơn và đáng tin cậy hơn trong các nhiệm vụ ngôn ngữ, đồng thời có độ dài ngữ cảnh dài hơn so với các mô hình trước đây. Nó phù hợp nhất cho các quy trình RAG phức tạp và việc sử dụng công cụ nhiều bước."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 là một phiên bản cập nhật nhỏ gọn và hiệu quả, được phát hành vào tháng 12 năm 2024. Nó thể hiện xuất sắc trong các nhiệm vụ cần suy luận phức tạp và xử lý nhiều bước như RAG, sử dụng công cụ và đại lý."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "Mô hình DALL·E thế hệ thứ hai, hỗ trợ tạo hình ảnh chân thực và chính xác hơn, với độ phân giải gấp 4 lần thế hệ đầu tiên."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B phiên bản nhanh, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, cung cấp tốc độ phản hồi nhanh hơn trong khi vẫn giữ hiệu suất của mô hình."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B phiên bản tiêu chuẩn, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, phù hợp cho các nhiệm vụ đối thoại và xử lý văn bản cần thông tin mới nhất."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 - mô hình lớn hơn và thông minh hơn trong bộ công cụ DeepSeek - đã được chưng cất vào kiến trúc Llama 70B. Dựa trên các bài kiểm tra chuẩn và đánh giá của con người, mô hình này thông minh hơn so với Llama 70B gốc, đặc biệt xuất sắc trong các nhiệm vụ yêu cầu độ chính xác về toán học và sự thật."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "Mô hình DeepSeek-R1-Distill được tinh chỉnh từ các mẫu do DeepSeek-R1 tạo ra cho các mô hình mã nguồn mở như Qwen, Llama thông qua công nghệ chưng cất kiến thức."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Được phát hành lần đầu vào ngày 14 tháng 2 năm 2025, được chắt lọc từ mô hình cơ sở Llama3_70B (Xây dựng với Meta Llama) bởi đội ngũ phát triển mô hình Qianfan, dữ liệu chắt lọc cũng đồng thời bổ sung tài liệu của Qianfan."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Được phát hành lần đầu vào ngày 14 tháng 2 năm 2025, được chắt lọc từ mô hình cơ sở Llama3_8B (Xây dựng với Meta Llama) bởi đội ngũ phát triển mô hình Qianfan, dữ liệu chắt lọc cũng đồng thời bổ sung tài liệu của Qianfan."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "Mô hình DeepSeek-R1-Distill được tinh chỉnh từ các mẫu do DeepSeek-R1 tạo ra cho các mô hình mã nguồn mở như Qwen, Llama thông qua công nghệ chưng cất kiến thức."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "Mô hình DeepSeek-R1-Distill được tinh chỉnh từ các mẫu do DeepSeek-R1 tạo ra cho các mô hình mã nguồn mở như Qwen, Llama thông qua công nghệ chưng cất kiến thức."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 phiên bản nhanh đầy đủ, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, kết hợp sức mạnh của 671B tham số với tốc độ phản hồi nhanh hơn."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 phiên bản đầy đủ, có 671B tham số, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, có khả năng hiểu và tạo ra mạnh mẽ hơn."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Mô hình suy diễn do DeepSeek phát triển. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một đoạn nội dung chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "Mô hình lớn văn tâm 4.5 là thế hệ mới của mô hình nền tảng đa phương tiện tự phát triển của Baidu, đạt được tối ưu hóa hợp tác thông qua mô hình hóa đa phương tiện, có khả năng hiểu đa phương tiện xuất sắc; có khả năng ngôn ngữ tinh vi hơn, khả năng hiểu, tạo ra, logic và ghi nhớ được cải thiện toàn diện, giảm ảo giác, khả năng suy luận logic và mã được nâng cao rõ rệt."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Mô hình ngôn ngữ lớn theo ngữ cảnh tự phát triển của Baidu, phù hợp cho các ứng dụng như NPC trong trò chơi, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, có phong cách nhân vật rõ ràng và nhất quán, khả năng tuân theo lệnh mạnh mẽ, hiệu suất suy luận tốt hơn."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Phiên bản cố định hunyuan-turbo ngày 20 tháng 11 năm 2024, là một phiên bản nằm giữa hunyuan-turbo và hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Phiên bản này tối ưu hóa: quy mô chỉ thị dữ liệu, nâng cao đáng kể khả năng tổng quát của mô hình; nâng cao đáng kể khả năng toán học, lập trình, và suy luận logic; tối ưu hóa khả năng hiểu biết văn bản và từ ngữ; tối ưu hóa chất lượng tạo nội dung văn bản."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "Mô hình ngôn ngữ hình ảnh thế hệ mới của Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, nâng cao toàn diện khả năng nhận diện cơ bản, sáng tạo nội dung, hỏi đáp kiến thức, và phân tích suy luận so với mô hình thế hệ trước."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 phiên bản cố định, nâng cấp số lượng token trong đào tạo nền tảng; nâng cao khả năng tư duy về toán học/logic/mã; cải thiện trải nghiệm chung cho cả tiếng Trung và tiếng Anh, bao gồm sáng tác văn bản, hiểu văn bản, hỏi đáp kiến thức, trò chuyện, v.v."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Thống nhất phong cách giải quyết vấn đề toán học, tăng cường khả năng hỏi đáp nhiều vòng về toán học. Tối ưu hóa phong cách trả lời trong sáng tác văn bản, loại bỏ cảm giác AI, tăng cường tính văn chương."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS là phiên bản mới nhất của mô hình lớn hỗn hợp Hunyuan, có khả năng tư duy mạnh mẽ hơn và trải nghiệm tốt hơn."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ đầu vào hình ảnh + văn bản để tạo ra nội dung văn bản."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere mang đến cho bạn các mô hình đa ngôn ngữ tiên tiến nhất, tính năng tìm kiếm hiện đại và không gian làm việc AI được thiết kế riêng cho các doanh nghiệp hiện đại - tất cả đều được tích hợp trong một nền tảng an toàn."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud cho phép các nhà phát triển dễ dàng sử dụng các mô hình mã nguồn mở tốt nhất và tận hưởng tốc độ suy diễn nhanh nhất."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API cung cấp quyền truy cập vào các mô hình DeepSeek có thể tự kết nối theo nhu cầu, bao gồm phiên bản tiêu chuẩn và phiên bản nhanh, hỗ trợ lựa chọn mô hình với nhiều quy mô tham số khác nhau."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseTime luôn đổi mới, dựa vào nền tảng mạnh mẽ của SenseTime để cung cấp dịch vụ mô hình lớn toàn diện, hiệu quả và dễ sử dụng."
|
106
112
|
},
|
@@ -39,9 +39,12 @@
|
|
39
39
|
"title": "初始化 PGlite 数据库"
|
40
40
|
},
|
41
41
|
"error": {
|
42
|
-
"desc": "非常抱歉,Pglite
|
42
|
+
"desc": "非常抱歉,Pglite 数据库初始化过程发生异常,请点击右侧按钮重试。如果你具有 SQL 运维经验,可以尝试点击下方自助解决按钮自行解决。如多次重试后仍重复出错,请点击左下方反馈问题,我们将会第一时间帮你排查",
|
43
43
|
"detail": "错误原因:[{{type}}] {{message}},明细如下:",
|
44
|
+
"detailTitle": "错误原因",
|
45
|
+
"report": "反馈问题",
|
44
46
|
"retry": "重试",
|
47
|
+
"selfSolve": "自助解决",
|
45
48
|
"title": "数据库初始化失败"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "立即使用",
|
81
84
|
"desc": "立即想用",
|
82
85
|
"title": "PGlite 数据库已就绪"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "备份",
|
90
|
+
"backupSuccess": "备份成功",
|
91
|
+
"desc": "导出当前数据库中的关键数据",
|
92
|
+
"export": "导出全部数据",
|
93
|
+
"exportDesc": "导出的数据将以JSON格式保存,可用于后续恢复或分析。",
|
94
|
+
"reset": {
|
95
|
+
"alert": "警告",
|
96
|
+
"alertDesc": "以下操作可能会导致数据丢失。请确保您已备份重要数据后再继续。",
|
97
|
+
"button": "完全重置数据库(删除所有数据)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "此操作将会删除所有数据并且不可撤销,确认继续吗?",
|
100
|
+
"title": "确认重置数据库"
|
101
|
+
},
|
102
|
+
"desc": "在迁移无法恢复的情况下重置数据库",
|
103
|
+
"title": "数据库重置"
|
104
|
+
},
|
105
|
+
"restore": "恢复",
|
106
|
+
"restoreSuccess": "恢复成功",
|
107
|
+
"title": "数据备份"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "创建时间",
|
111
|
+
"migratedAt": "迁移完成时间",
|
112
|
+
"sql": "迁移SQL",
|
113
|
+
"title": "迁移状态"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "手动管理迁移状态",
|
117
|
+
"runSQL": "自定义执行",
|
118
|
+
"sql": {
|
119
|
+
"clear": "清空",
|
120
|
+
"desc": "执行自定义SQL语句修复数据库问题",
|
121
|
+
"markFinished": "标记为已完成",
|
122
|
+
"placeholder": "输入SQL语句...",
|
123
|
+
"result": "执行结果",
|
124
|
+
"run": "执行",
|
125
|
+
"title": "SQL执行器"
|
126
|
+
},
|
127
|
+
"title": "迁移控制"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "备份恢复",
|
131
|
+
"diagnosis": "诊断",
|
132
|
+
"repair": "修复"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "关闭",
|
@@ -301,4 +352,4 @@
|
|
301
352
|
"usages": "用量统计"
|
302
353
|
},
|
303
354
|
"version": "版本"
|
304
|
-
}
|
355
|
+
}
|