@lobehub/chat 1.51.8 → 1.51.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/modelProvider.json +0 -20
  5. package/locales/ar/models.json +108 -3
  6. package/locales/bg-BG/common.json +1 -1
  7. package/locales/bg-BG/modelProvider.json +0 -20
  8. package/locales/bg-BG/models.json +108 -3
  9. package/locales/de-DE/common.json +1 -1
  10. package/locales/de-DE/modelProvider.json +0 -20
  11. package/locales/de-DE/models.json +108 -3
  12. package/locales/en-US/common.json +1 -1
  13. package/locales/en-US/modelProvider.json +0 -20
  14. package/locales/en-US/models.json +108 -3
  15. package/locales/es-ES/common.json +1 -1
  16. package/locales/es-ES/modelProvider.json +0 -20
  17. package/locales/es-ES/models.json +108 -3
  18. package/locales/fa-IR/common.json +1 -1
  19. package/locales/fa-IR/modelProvider.json +0 -20
  20. package/locales/fa-IR/models.json +108 -3
  21. package/locales/fr-FR/common.json +1 -1
  22. package/locales/fr-FR/modelProvider.json +0 -20
  23. package/locales/fr-FR/models.json +108 -3
  24. package/locales/it-IT/common.json +1 -1
  25. package/locales/it-IT/modelProvider.json +0 -20
  26. package/locales/it-IT/models.json +108 -3
  27. package/locales/ja-JP/common.json +1 -1
  28. package/locales/ja-JP/modelProvider.json +0 -20
  29. package/locales/ja-JP/models.json +108 -3
  30. package/locales/ko-KR/common.json +1 -1
  31. package/locales/ko-KR/modelProvider.json +0 -20
  32. package/locales/ko-KR/models.json +108 -3
  33. package/locales/nl-NL/common.json +1 -1
  34. package/locales/nl-NL/modelProvider.json +0 -20
  35. package/locales/nl-NL/models.json +108 -3
  36. package/locales/pl-PL/common.json +1 -1
  37. package/locales/pl-PL/modelProvider.json +0 -20
  38. package/locales/pl-PL/models.json +108 -3
  39. package/locales/pt-BR/common.json +1 -1
  40. package/locales/pt-BR/modelProvider.json +0 -20
  41. package/locales/pt-BR/models.json +108 -3
  42. package/locales/ru-RU/common.json +1 -1
  43. package/locales/ru-RU/modelProvider.json +0 -20
  44. package/locales/ru-RU/models.json +108 -3
  45. package/locales/tr-TR/common.json +1 -1
  46. package/locales/tr-TR/modelProvider.json +0 -20
  47. package/locales/tr-TR/models.json +108 -3
  48. package/locales/vi-VN/common.json +1 -1
  49. package/locales/vi-VN/modelProvider.json +0 -20
  50. package/locales/vi-VN/models.json +108 -3
  51. package/locales/zh-CN/common.json +1 -1
  52. package/locales/zh-CN/modelProvider.json +0 -20
  53. package/locales/zh-CN/models.json +113 -8
  54. package/locales/zh-TW/common.json +1 -1
  55. package/locales/zh-TW/modelProvider.json +0 -20
  56. package/locales/zh-TW/models.json +108 -3
  57. package/package.json +1 -1
  58. package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
  59. package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
  60. package/src/app/[variants]/(main)/chat/layout.ts +0 -2
  61. package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +2 -0
  62. package/src/features/User/PlanTag.tsx +2 -2
  63. package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro, 360 şirketi tarafından sunulan yüksek düzeyde doğal dil işleme modelidir, mükemmel metin oluşturma ve anlama yeteneğine sahiptir, özellikle oluşturma ve yaratma alanında olağanüstü performans gösterir, karmaşık dil dönüşümleri ve rol canlandırma görevlerini işleyebilir."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1, düşünce zincirini oluşturmak için ağaç araması kullanır ve yansıtma mekanizmasını entegre eder, pekiştirme öğrenimi ile eğitilir, model kendini yansıtma ve hata düzeltme yeteneğine sahiptir."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "Qwen2.5-Math-1.5B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "Qwen2.5-14B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "DeepSeek-R1 serisi, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler, OpenAI-o1-mini seviyesini aşar."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "Qwen2.5-Math-7B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite, mükemmel yanıt hızı ve daha iyi maliyet Performansı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi çıkarım ve ince ayar destekler."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1, Meta tarafından geliştirilen çok dilli büyük dil modeli ailesidir ve 8B, 70B ve 405B olmak üzere üç parametre ölçeği ile önceden eğitilmiş ve talimat ince ayar varyantları içermektedir. Bu 8B talimat ince ayar modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok endüstri standart testinde mükemmel performans sergilemektedir. Model, 15 trilyon token'dan fazla açık veriler kullanılarak eğitilmiş ve modelin faydasını ve güvenliğini artırmak için denetimli ince ayar ve insan geri bildirimi pekiştirmeli öğrenme gibi teknikler kullanılmıştır. Llama 3.1, metin üretimi ve kod üretimini desteklemekte olup, bilgi kesim tarihi 2023 Aralık'tır."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview, Qwen ekibi tarafından geliştirilen ve görsel çıkarım yeteneklerine odaklanan bir araştırma modelidir. Karmaşık sahne anlayışı ve görsel ile ilgili matematiksel sorunları çözme konusundaki benzersiz avantajları ile dikkat çekmektedir."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B, Llama-3.1-8B temel alınarak geliştirilmiş bir damıtma modelidir. Bu model, DeepSeek-R1 tarafından üretilen örneklerle ince ayar yapılmış, mükemmel çıkarım yeteneği sergilemektedir. Birçok referans testinde iyi performans göstermiş, MATH-500'de %89.1 doğruluk oranına, AIME 2024'te %50.4 geçiş oranına ulaşmış, CodeForces'ta 1205 puan alarak 8B ölçeğindeki model olarak güçlü matematik ve programlama yeteneğini göstermiştir."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, matematik, programlama ve çıkarım gibi birçok alanda olağanüstü performans sergilemektedir. AIME 2024, MATH-500, GPQA Diamond gibi birçok referans testinde mükemmel sonuçlar elde etmiş, MATH-500'de %94.3 doğruluk oranına ulaşarak güçlü matematik çıkarım yeteneğini göstermiştir."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B, Qwen2.5-Math-7B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, mükemmel çıkarım yeteneği sergilemektedir. Birçok referans testinde öne çıkmış, MATH-500'de %92.8 doğruluk oranına, AIME 2024'te %55.5 geçiş oranına ulaşmış, CodeForces'ta 1189 puan alarak 7B ölçeğindeki model olarak güçlü matematik ve programlama yeteneğini göstermiştir."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 - DeepSeek paketindeki daha büyük ve daha akıllı model - Llama 70B mimarisine damıtılmıştır. Referans testleri ve insan değerlendirmelerine dayanarak, bu model orijinal Llama 70B'den daha akıllıdır, özellikle matematik ve gerçeklik doğruluğu gerektiren görevlerde mükemmel performans sergilemektedir."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "DeepSeek tarafından sunulan bir akıl yürütme modeli. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai cevabın doğruluğunu artırır."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B, DeepSeek'in tasarım kodu modelidir, güçlü kod üretim yetenekleri sunar."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3, Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Şirketi tarafından geliştirilen MoE modelidir, birçok değerlendirme sonucunda öne çıkmakta ve ana akım listelerde açık kaynak modeller arasında birinci sırada yer almaktadır. V3, V2.5 modeline göre üretim hızında 3 kat artış sağlamış, kullanıcılara daha hızlı ve akıcı bir deneyim sunmuştur."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e göre model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e göre model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Baidu tarafından geliştirilen dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryolarına uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimat takibi yeteneği daha güçlü, çıkarım performansı daha iyidir."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Baidu tarafından geliştirilen dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryolarına uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimat takibi yeteneği daha güçlü, çıkarım performansı daha iyidir."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite, Baidu tarafından geliştirilen hafif büyük dil modelidir, mükemmel model performansı ve çıkarım yeteneği ile düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Baidu tarafından geliştirilen hafif büyük dil modeli, mükemmel model performansı ve çıkarım yeteneği ile ERNIE Lite'dan daha iyi sonuçlar verir, düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Baidu tarafından geliştirilen genel büyük dil modeli, roman devam ettirme yeteneğinde belirgin bir avantaja sahiptir, aynı zamanda kısa oyun, film gibi senaryolarda da kullanılabilir."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "Baidu'nun 2024 yılında yayımladığı en son yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel, belirli senaryo sorunlarını daha iyi ele almak için temel model olarak ince ayar yapılabilir, aynı zamanda mükemmel çıkarım performansına sahiptir."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "Baidu'nun 2024 yılında yayımladığı en son yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel, ERNIE Speed'den daha iyi sonuçlar verir, belirli senaryo sorunlarını daha iyi ele almak için temel model olarak ince ayar yapılabilir, aynı zamanda mükemmel çıkarım performansına sahiptir."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny, Baidu tarafından geliştirilen ultra yüksek performanslı büyük dil modelidir, dağıtım ve ince ayar maliyetleri Wenxin serisi modelleri arasında en düşüktür."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir, 405B modelinin performansını çok düşük maliyetle deneyimleme imkanı sunar. Transformer yapısına dayanır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile kullanılabilirlik ve güvenliği artırılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri standardında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içinde önceden eğitilmiş ve talimat ayarlı bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri standartlarında birçok mevcut açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Tongyi Qianwen OCR, belge, tablo, sınav soruları, el yazısı gibi çeşitli görüntü türlerinden metin çıkarma yeteneğine odaklanan özel bir modeldir. Birçok yazıyı tanıyabilir, şu anda desteklenen diller: Çince, İngilizce, Fransızca, Japonca, Korece, Almanca, Rusça, İtalyanca, Vietnamca, Arapça."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "Tongyi Qianwen 2.5, 72B ölçeğinde açık kaynak olarak sunulmuştur."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Talimat takibi, matematik, problem çözme, kodlama genelinde iyileştirme, her türlü nesneyi tanıma yeteneği artışı, çeşitli formatları doğrudan hassas bir şekilde görsel unsurları konumlandırma desteği, uzun video dosyalarını (en fazla 10 dakika) anlama ve saniye düzeyinde olay anlarını konumlandırma yeteneği, zaman sıralamasını ve hızını anlama, analiz ve konumlandırma yeteneğine dayanarak OS veya Mobil ajanları kontrol etme desteği, anahtar bilgileri çıkarma yeteneği ve Json formatında çıktı verme yeteneği güçlüdür, bu sürüm 72B versiyonudur, bu serinin en güçlü versiyonudur."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Talimat takibi, matematik, problem çözme, kodlama genelinde iyileştirme, her türlü nesneyi tanıma yeteneği artışı, çeşitli formatları doğrudan hassas bir şekilde görsel unsurları konumlandırma desteği, uzun video dosyalarını (en fazla 10 dakika) anlama ve saniye düzeyinde olay anlarını konumlandırma yeteneği, zaman sıralamasını ve hızını anlama, analiz ve konumlandırma yeteneğine dayanarak OS veya Mobil ajanları kontrol etme desteği, anahtar bilgileri çıkarma yeteneği ve Json formatında çıktı verme yeteneği güçlüdür, bu sürüm 72B versiyonudur, bu serinin en güçlü versiyonudur."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "Người dùng ẩn danh",
287
287
  "billing": "Quản lý hóa đơn",
288
288
  "cloud": "Trải nghiệm {{name}}",
289
+ "community": "Phiên bản cộng đồng",
289
290
  "data": "Lưu trữ dữ liệu",
290
291
  "defaultNickname": "Người dùng phiên bản cộng đồng",
291
292
  "discord": "Hỗ trợ cộng đồng",
@@ -295,7 +296,6 @@
295
296
  "help": "Trung tâm trợ giúp",
296
297
  "moveGuide": "Đã di chuyển nút cài đặt đến đây",
297
298
  "plans": "Kế hoạch đăng ký",
298
- "preview": "Phiên bản xem trước",
299
299
  "profile": "Quản lý tài khoản",
300
300
  "setting": "Cài đặt ứng dụng",
301
301
  "usages": "Thống kê sử dụng"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "Cập nhật cấu hình cơ bản của nhà cung cấp",
295
295
  "updateSuccess": "Cập nhật thành công"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "Nhập Access Key từ nền tảng Qianfan của Baidu",
300
- "placeholder": "Access Key Qianfan",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "Kiểm tra xem AccessKey / SecretAccess có được nhập đúng không"
305
- },
306
- "secretKey": {
307
- "desc": "Nhập Secret Key từ nền tảng Qianfan của Baidu",
308
- "placeholder": "Secret Key Qianfan",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "Khu vực dịch vụ tùy chỉnh",
313
- "description": "Nhập AccessKey / SecretKey của bạn để bắt đầu phiên trò chuyện. Ứng dụng sẽ không ghi lại cấu hình xác thực của bạn",
314
- "title": "Sử dụng thông tin xác thực của Wenxin Yiyan tùy chỉnh"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI Zero One"
319
299
  },
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro là mô hình xử lý ngôn ngữ tự nhiên cao cấp do công ty 360 phát hành, có khả năng tạo và hiểu văn bản xuất sắc, đặc biệt trong lĩnh vực tạo ra và sáng tạo, có thể xử lý các nhiệm vụ chuyển đổi ngôn ngữ phức tạp và diễn xuất vai trò."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 sử dụng tìm kiếm cây để xây dựng chuỗi tư duy, và giới thiệu cơ chế phản hồi, sử dụng học tăng cường để đào tạo, mô hình có khả năng tự phản hồi và sửa lỗi."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-1.5B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-14B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "Dòng DeepSeek-R1 tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm, vượt qua mức OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-7B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite có tốc độ phản hồi cực nhanh, giá trị tốt hơn, cung cấp sự lựa chọn linh hoạt cho khách hàng trong nhiều tình huống khác nhau. Hỗ trợ suy diễn và tinh chỉnh trong ngữ cảnh 128k."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Mô hình ngôn ngữ lớn siêu cấp do Baidu tự phát triển, thể hiện hiệu suất xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Mô hình ngôn ngữ quy mô siêu lớn tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi cho các tình huống tác vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo tính kịp thời của thông tin câu hỏi đáp. So với ERNIE 4.0, nó có hiệu suất tốt hơn."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 là một phần của gia đình mô hình ngôn ngữ lớn đa ngôn ngữ do Meta phát triển, bao gồm các biến thể tiền huấn luyện và tinh chỉnh theo chỉ dẫn với quy mô tham số 8B, 70B và 405B. Mô hình 8B này được tối ưu hóa cho các tình huống đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn ngành. Mô hình được đào tạo bằng hơn 15 triệu tỷ tokens từ dữ liệu công khai và sử dụng các kỹ thuật như tinh chỉnh giám sát và học tăng cường phản hồi của con người để nâng cao tính hữu ích và an toàn của mô hình. Llama 3.1 hỗ trợ sinh văn bản và sinh mã, với thời điểm cắt kiến thức là tháng 12 năm 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview là một mô hình nghiên cứu do đội ngũ Qwen phát triển, tập trung vào khả năng suy diễn hình ảnh, có lợi thế độc đáo trong việc hiểu các cảnh phức tạp và giải quyết các vấn đề toán học liên quan đến hình ảnh."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B là mô hình chưng cất phát triển từ Llama-3.1-8B. Mô hình này sử dụng các mẫu được tạo ra từ DeepSeek-R1 để tinh chỉnh, thể hiện khả năng suy luận xuất sắc. Trong nhiều bài kiểm tra chuẩn, nó đã thể hiện tốt, trong đó đạt 89.1% độ chính xác trên MATH-500, đạt 50.4% tỷ lệ vượt qua trên AIME 2024, và đạt điểm 1205 trên CodeForces, thể hiện khả năng toán học và lập trình mạnh mẽ cho mô hình quy mô 8B."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B là mô hình được tạo ra từ Qwen2.5-32B thông qua chưng cất kiến thức. Mô hình này sử dụng 800.000 mẫu được chọn lọc từ DeepSeek-R1 để tinh chỉnh, thể hiện hiệu suất xuất sắc trong nhiều lĩnh vực như toán học, lập trình và suy luận. Trong nhiều bài kiểm tra chuẩn như AIME 2024, MATH-500, GPQA Diamond, nó đã đạt được kết quả xuất sắc, trong đó đạt 94.3% độ chính xác trên MATH-500, thể hiện khả năng suy luận toán học mạnh mẽ."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B là mô hình được tạo ra từ Qwen2.5-Math-7B thông qua chưng cất kiến thức. Mô hình này sử dụng 800.000 mẫu được chọn lọc từ DeepSeek-R1 để tinh chỉnh, thể hiện khả năng suy luận xuất sắc. Trong nhiều bài kiểm tra chuẩn, nó đã thể hiện xuất sắc, trong đó đạt 92.8% độ chính xác trên MATH-500, đạt 55.5% tỷ lệ vượt qua trên AIME 2024, và đạt điểm 1189 trên CodeForces, thể hiện khả năng toán học và lập trình mạnh mẽ cho mô hình quy mô 7B."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 kết hợp các đặc điểm xuất sắc của các phiên bản trước, tăng cường khả năng tổng quát và mã hóa."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 - mô hình lớn hơn và thông minh hơn trong bộ công cụ DeepSeek - đã được chưng cất vào kiến trúc Llama 70B. Dựa trên các bài kiểm tra chuẩn và đánh giá của con người, mô hình này thông minh hơn so với Llama 70B gốc, đặc biệt xuất sắc trong các nhiệm vụ yêu cầu độ chính xác về toán học và sự thật."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "Mô hình suy diễn do DeepSeek phát triển. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một đoạn nội dung chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B là mô hình mã thiết kế của DeepSeek, cung cấp khả năng sinh mã mạnh mẽ."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 là mô hình MoE tự phát triển của Công ty Nghiên cứu Công nghệ AI Độ Sâu Hàng Châu, có nhiều thành tích xuất sắc trong các bài kiểm tra, đứng đầu bảng xếp hạng mô hình mã nguồn mở. V3 so với mô hình V2.5 đã cải thiện tốc độ tạo ra gấp 3 lần, mang đến trải nghiệm sử dụng nhanh chóng và mượt mà hơn cho người dùng."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, so với ERNIE 3.5 đã thực hiện nâng cấp toàn diện về khả năng mô hình, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, so với ERNIE 3.5 đã thực hiện nâng cấp toàn diện về khả năng mô hình, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Mô hình ngôn ngữ lớn theo ngữ cảnh tự phát triển của Baidu, phù hợp cho các ứng dụng như NPC trong trò chơi, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, có phong cách nhân vật rõ ràng và nhất quán, khả năng tuân theo lệnh mạnh mẽ, hiệu suất suy luận tốt hơn."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Mô hình ngôn ngữ lớn theo ngữ cảnh tự phát triển của Baidu, phù hợp cho các ứng dụng như NPC trong trò chơi, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, có phong cách nhân vật rõ ràng và nhất quán, khả năng tuân theo lệnh mạnh mẽ, hiệu suất suy luận tốt hơn."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite là mô hình ngôn ngữ lớn nhẹ tự phát triển của Baidu, kết hợp hiệu suất mô hình xuất sắc với hiệu suất suy luận, phù hợp cho việc sử dụng trên thẻ tăng tốc AI với công suất thấp."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Mô hình ngôn ngữ lớn nhẹ tự phát triển của Baidu, kết hợp hiệu suất mô hình xuất sắc với hiệu suất suy luận, hiệu suất tốt hơn ERNIE Lite, phù hợp cho việc sử dụng trên thẻ tăng tốc AI với công suất thấp."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Mô hình ngôn ngữ lớn tổng quát tự phát triển của Baidu, có lợi thế rõ rệt trong khả năng viết tiếp tiểu thuyết, cũng có thể được sử dụng trong các tình huống như kịch ngắn, phim ảnh."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "Mô hình ngôn ngữ lớn hiệu suất cao tự phát triển của Baidu, được phát hành vào năm 2024, có khả năng tổng quát xuất sắc, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong tình huống cụ thể, đồng thời có hiệu suất suy luận xuất sắc."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "Mô hình ngôn ngữ lớn hiệu suất cao tự phát triển của Baidu, được phát hành vào năm 2024, có khả năng tổng quát xuất sắc, hiệu suất tốt hơn ERNIE Speed, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong tình huống cụ thể, đồng thời có hiệu suất suy luận xuất sắc."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny là mô hình ngôn ngữ lớn hiệu suất siêu cao tự phát triển của Baidu, có chi phí triển khai và tinh chỉnh thấp nhất trong dòng sản phẩm văn tâm."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh, là lựa chọn lý tưởng cho các giải pháp nhiệm vụ phức tạp."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường phản hồi từ con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn được tối ưu hóa cho đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng trong nhiều tiêu chuẩn ngành. Ngày cắt kiến thức là tháng 12 năm 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Mô hình ngôn ngữ lớn đa ngôn ngữ Meta Llama 3.3 (LLM) là mô hình sinh ra từ 70B (đầu vào văn bản/đầu ra văn bản) với việc điều chỉnh trước và điều chỉnh theo lệnh. Mô hình điều chỉnh theo lệnh Llama 3.3 được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng khác trên các bài kiểm tra chuẩn ngành phổ biến."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Mô hình ngôn ngữ hình ảnh quy mô siêu lớn của Tongyi Qianwen. So với phiên bản nâng cao, nó lại nâng cao khả năng suy luận hình ảnh và khả năng tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và cảm nhận hình ảnh cao hơn."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Công Nghệ Qianwen OCR là mô hình chuyên dụng cho việc trích xuất văn bản, tập trung vào khả năng trích xuất văn bản từ các loại hình ảnh như tài liệu, bảng biểu, đề thi, chữ viết tay, v.v. Nó có thể nhận diện nhiều loại văn bản, hiện hỗ trợ các ngôn ngữ: tiếng Trung, tiếng Anh, tiếng Pháp, tiếng Nhật, tiếng Hàn, tiếng Đức, tiếng Nga, tiếng Ý, tiếng Việt, tiếng Ả Rập."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn phiên bản nâng cao của Tongyi Qianwen. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải trên một triệu pixel và các tỷ lệ chiều dài và chiều rộng tùy ý."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "Mô hình 14B quy mô mở nguồn của Qwen 2.5."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "Mô hình quy mô 72B được mở nguồn từ Qianwen 2.5."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "Mô hình 32B quy mô mở nguồn của Qwen 2.5."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Nâng cao khả năng theo dõi lệnh, toán học, giải quyết vấn đề, mã hóa, nâng cao khả năng nhận diện mọi thứ, hỗ trợ định vị chính xác các yếu tố thị giác từ nhiều định dạng khác nhau, hỗ trợ hiểu và định vị thời gian sự kiện trong các tệp video dài (tối đa 10 phút), có khả năng hiểu thứ tự thời gian và tốc độ, hỗ trợ điều khiển Agent trên OS hoặc Mobile dựa trên khả năng phân tích và định vị, khả năng trích xuất thông tin quan trọng và xuất định dạng Json mạnh mẽ, phiên bản này là phiên bản 72B, phiên bản mạnh nhất trong dòng sản phẩm này."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Nâng cao khả năng theo dõi lệnh, toán học, giải quyết vấn đề, mã hóa, nâng cao khả năng nhận diện mọi thứ, hỗ trợ định vị chính xác các yếu tố thị giác từ nhiều định dạng khác nhau, hỗ trợ hiểu và định vị thời gian sự kiện trong các tệp video dài (tối đa 10 phút), có khả năng hiểu thứ tự thời gian và tốc độ, hỗ trợ điều khiển Agent trên OS hoặc Mobile dựa trên khả năng phân tích và định vị, khả năng trích xuất thông tin quan trọng và xuất định dạng Json mạnh mẽ, phiên bản này là phiên bản 72B, phiên bản mạnh nhất trong dòng sản phẩm này."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 là thế hệ mô hình ngôn ngữ quy mô lớn mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "匿名用户",
287
287
  "billing": "账单管理",
288
288
  "cloud": "体验 {{name}}",
289
+ "community": "社区版",
289
290
  "data": "数据存储",
290
291
  "defaultNickname": "社区版用户",
291
292
  "discord": "社区支持",
@@ -295,7 +296,6 @@
295
296
  "help": "帮助中心",
296
297
  "moveGuide": "设置按钮搬到这里啦",
297
298
  "plans": "订阅方案",
298
- "preview": "预览版",
299
299
  "profile": "账户管理",
300
300
  "setting": "应用设置",
301
301
  "usages": "用量统计"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "更新服务商基础配置",
295
295
  "updateSuccess": "更新成功"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "填入百度千帆平台的 Access Key",
300
- "placeholder": "Qianfan Access Key",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "测试 AccessKey / SecretAccess 是否填写正确"
305
- },
306
- "secretKey": {
307
- "desc": "填入百度千帆平台 Secret Key",
308
- "placeholder": "Qianfan Secret Key",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "自定义服务区域",
313
- "description": "输入你的 AccessKey / SecretKey 即可开始会话。应用不会记录你的鉴权配置",
314
- "title": "使用自定义文心一言鉴权信息"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI 零一万物"
319
299
  },