@lobehub/chat 1.19.14 → 1.19.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (40) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/locales/ar/models.json +116 -48
  3. package/locales/ar/providers.json +4 -0
  4. package/locales/bg-BG/models.json +116 -48
  5. package/locales/bg-BG/providers.json +4 -0
  6. package/locales/de-DE/models.json +116 -48
  7. package/locales/de-DE/providers.json +4 -0
  8. package/locales/en-US/models.json +116 -48
  9. package/locales/en-US/providers.json +4 -0
  10. package/locales/es-ES/models.json +116 -48
  11. package/locales/es-ES/providers.json +4 -0
  12. package/locales/fr-FR/models.json +116 -48
  13. package/locales/fr-FR/providers.json +4 -0
  14. package/locales/it-IT/models.json +116 -48
  15. package/locales/it-IT/providers.json +4 -0
  16. package/locales/ja-JP/models.json +116 -48
  17. package/locales/ja-JP/providers.json +4 -0
  18. package/locales/ko-KR/models.json +116 -48
  19. package/locales/ko-KR/providers.json +4 -0
  20. package/locales/nl-NL/models.json +116 -48
  21. package/locales/nl-NL/providers.json +4 -0
  22. package/locales/pl-PL/models.json +0 -60
  23. package/locales/pl-PL/providers.json +4 -0
  24. package/locales/pt-BR/models.json +116 -48
  25. package/locales/pt-BR/providers.json +4 -0
  26. package/locales/ru-RU/models.json +116 -48
  27. package/locales/ru-RU/providers.json +4 -0
  28. package/locales/tr-TR/models.json +116 -48
  29. package/locales/tr-TR/providers.json +4 -0
  30. package/locales/vi-VN/models.json +0 -60
  31. package/locales/zh-CN/models.json +122 -54
  32. package/locales/zh-CN/providers.json +4 -0
  33. package/locales/zh-TW/models.json +116 -48
  34. package/locales/zh-TW/providers.json +4 -0
  35. package/package.json +1 -1
  36. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-output.json +17 -198
  37. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-raw.json +0 -92
  38. package/src/libs/unstructured/__tests__/index.test.ts +3 -3
  39. package/src/store/global/action.test.ts +53 -0
  40. package/src/store/global/action.ts +16 -2
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B, zengin eğitim örnekleri ile endüstri uygulamalarında üstün performans sunar."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5, Yi serisinin evrimsel versiyonudur, yüksek kaliteli ön eğitim ve zengin ince ayar verilerine sahiptir."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B, 16K Token desteği sunar, etkili ve akıcı dil oluşturma yeteneği sağlar."
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B), optimize edilmiş dil çıktısı ve çeşitli uygulama olasılıkları sunar."
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Phi-3-mini modelinin yenilenmiş versiyonu."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Aynı Phi-3-medium modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "14B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Aynı Phi-3-mini modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Phi-3 ailesinin en küçük üyesi. Hem kalite hem de düşük gecikme için optimize edilmiştir."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Aynı Phi-3-small modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "7B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar."
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "Qwen2'nin test sürümü olan Qwen1.5, büyük ölçekli verilerle daha hassas diyalog yetenekleri sunar."
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5, büyük ölçekli veri setleri ile eğitilmiş olup, karmaşık dil görevlerinde uzmandır."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5, çok alanlı bilgi sorgulama ve metin oluşturma yeteneğine sahiptir."
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B), hızlı yanıt ve doğal diyalog yetenekleri sunar, çok dilli ortamlara uygundur."
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5, gelişmiş ön eğitim ve ince ayar kombinasyonu ile diyalog ifade yeteneğini artırır."
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2, talimat görevlerinde mükemmel performans gösteren 57B A14B modelidir."
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5, daha güçlü anlama ve üretim yeteneklerine sahip yeni bir büyük dil modeli serisidir."
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2, daha güçlü anlama ve oluşturma yeteneklerine sahip yeni bir büyük dil modeli serisidir."
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math, matematik alanındaki sorunları çözmeye odaklanır ve zorlu sorulara profesyonel yanıtlar sunar."
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder, kod yazmaya odaklanır."
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "Çift dilli diyalog dil modeli olarak, ChatGLM3, Çince ve İngilizce dönüşüm görevlerini işleyebilir."
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "398B parametreli (94B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "52B parametreli (12B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "En iyi performans, kalite ve maliyet verimliliği sağlamak için üretim sınıfı Mamba tabanlı LLM modelidir."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir."
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R, üretim ölçeğinde AI sağlamak için RAG ve Araç Kullanımına yönelik ölçeklenebilir bir üretken modeldir."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct, yüksek güvenilirlikte talimat işleme yetenekleri sunar ve çok çeşitli endüstri uygulamalarını destekler."
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2, kod görevleri için tasarlanmış olup, etkili kod oluşturma üzerine odaklanmaktadır."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2, 6.7 milyar parametreye sahiptir ve İngilizce ve Çince metin işleme desteği sunar."
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır."
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar."
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "Diyalog ve metin üretim görevleri için optimize edilmiş çok yönlü bir 8 milyar parametreli model."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar."
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3, büyük hacimli metin oluşturma ve talimat çözümleme desteği sunar."
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur."
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler."
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407), en son akıl yürütme, bilgi ve kodlama yetenekleri ile gelişmiş bir Büyük Dil Modelidir (LLM)."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır."
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir."
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her dil tabanlı görevde kullanılabilir."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir."
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur."
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "Tongyi Qianwen kodlama modeli."
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir."
718
768
  },
719
- "qwen-max": {
720
- "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir."
769
+ "qwen-math-plus-latest": {
770
+ "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve bağlam penceresini genişletmiştir."
772
+ "qwen-math-turbo-latest": {
773
+ "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
724
774
  },
725
- "qwen-plus": {
726
- "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli dil modelinin geliştirilmiş versiyonudur."
775
+ "qwen-max-latest": {
776
+ "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler, şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir."
727
777
  },
728
- "qwen-turbo": {
729
- "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli bir dil modelidir."
778
+ "qwen-plus-latest": {
779
+ "description": "Tongyi Qianwen'in geliştirilmiş versiyonu, çok dilli girişleri destekler."
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "Tongyi Qianwen, çok dilli bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler."
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 57B ölçeğinde 14B etkin parametreli MOE modelidir."
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir."
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir."
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "Tongyi Qianwen 2.5, halka açık 72B ölçeğinde bir modeldir."
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir."
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 72B ölçeğinde bir modeldir."
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 7B ölçeğinde bir modeldir."
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Qwen2-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır."
22
23
  },
24
+ "github": {
25
+ "description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler."
26
+ },
23
27
  "google": {
24
28
  "description": "Google'ın Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel yapay zeka modelleridir. Çok modlu tasarımı sayesinde metin, kod, görüntü, ses ve video gibi çeşitli veri türlerini sorunsuz bir şekilde anlama ve işleme yeteneğine sahiptir. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, yapay zeka modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırmaktadır."
25
29
  },
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B, với mẫu huấn luyện phong phú, cung cấp hiệu suất vượt trội trong ứng dụng ngành."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 là phiên bản tiến hóa của dòng Yi, có đào tạo trước chất lượng cao và dữ liệu tinh chỉnh phong phú."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B hỗ trợ 16K Tokens, cung cấp khả năng tạo ngôn ngữ hiệu quả và mượt mà."
10
7
  },
@@ -53,36 +50,12 @@
53
50
  "Qwen/Qwen1.5-110B-Chat": {
54
51
  "description": "Là phiên bản thử nghiệm của Qwen2, Qwen1.5 sử dụng dữ liệu quy mô lớn để đạt được chức năng đối thoại chính xác hơn."
55
52
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 được đào tạo từ bộ dữ liệu quy mô lớn, xuất sắc trong các nhiệm vụ ngôn ngữ phức tạp."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 có khả năng trả lời câu hỏi đa lĩnh vực và tạo văn bản."
61
- },
62
53
  "Qwen/Qwen1.5-72B-Chat": {
63
54
  "description": "Qwen 1.5 Chat (72B) cung cấp phản hồi nhanh và khả năng đối thoại tự nhiên, phù hợp cho môi trường đa ngôn ngữ."
64
55
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 nâng cao khả năng diễn đạt trong đối thoại thông qua việc kết hợp giữa đào tạo trước cao cấp và tinh chỉnh."
67
- },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
70
- },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 là dòng mới, mô hình 57B A14B thể hiện xuất sắc trong các nhiệm vụ theo hướng dẫn."
73
- },
74
56
  "Qwen/Qwen2-72B-Instruct": {
75
57
  "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn."
76
58
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và tạo ra mạnh mẽ hơn."
79
- },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó."
82
- },
83
- "THUDM/chatglm3-6b": {
84
- "description": "Là mô hình ngôn ngữ hội thoại song ngữ, ChatGLM3 có khả năng xử lý các nhiệm vụ chuyển đổi giữa tiếng Trung và tiếng Anh."
85
- },
86
59
  "THUDM/glm-4-9b-chat": {
87
60
  "description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
88
61
  },
@@ -263,12 +236,6 @@
263
236
  "databricks/dbrx-instruct": {
264
237
  "description": "DBRX Instruct cung cấp khả năng xử lý chỉ dẫn đáng tin cậy, hỗ trợ nhiều ứng dụng trong ngành."
265
238
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 được thiết kế cho các nhiệm vụ mã, tập trung vào việc tạo mã hiệu quả."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 có 6.7 tỷ tham số, hỗ trợ xử lý văn bản tiếng Anh và tiếng Trung."
271
- },
272
239
  "deepseek-ai/DeepSeek-V2.5": {
273
240
  "description": "DeepSeek V2.5 kết hợp các đặc điểm xuất sắc của các phiên bản trước, tăng cường khả năng tổng quát và mã hóa."
274
241
  },
@@ -539,9 +506,6 @@
539
506
  "meta-llama/Llama-3-8b-chat-hf": {
540
507
  "description": "LLaMA-3 Chat (8B) cung cấp hỗ trợ đa ngôn ngữ, bao gồm nhiều lĩnh vực kiến thức phong phú."
541
508
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 hỗ trợ tạo văn bản dung lượng lớn và phân tích theo hướng dẫn."
544
- },
545
509
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
510
  "description": "Llama 3 70B Instruct Lite phù hợp cho các môi trường cần hiệu suất cao và độ trễ thấp."
547
511
  },
@@ -716,18 +680,6 @@
716
680
  "qwen-long": {
717
681
  "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu."
718
682
  },
719
- "qwen-max": {
720
- "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, hiện là mô hình API đứng sau phiên bản sản phẩm Qwen 2.5."
721
- },
722
- "qwen-max-longcontext": {
723
- "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, mở rộng cửa sổ ngữ cảnh."
724
- },
725
- "qwen-plus": {
726
- "description": "Mô hình ngôn ngữ quy mô lớn Qwen phiên bản nâng cao, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác."
727
- },
728
- "qwen-turbo": {
729
- "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác."
730
- },
731
683
  "qwen-vl-chat-v1": {
732
684
  "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
733
685
  },
@@ -746,18 +698,6 @@
746
698
  "qwen2": {
747
699
  "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
748
700
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "Mô hình Qwen2 quy mô 57B với 14B tham số kích hoạt MOE được mở nguồn cho công chúng."
751
- },
752
- "qwen2-72b-instruct": {
753
- "description": "Mô hình Qwen2 quy mô 72B được mở nguồn cho công chúng."
754
- },
755
- "qwen2-7b-instruct": {
756
- "description": "Mô hình Qwen2 quy mô 7B được mở nguồn cho công chúng."
757
- },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Mô hình Qwen2-Math có khả năng giải toán mạnh mẽ."
760
- },
761
701
  "qwen2:0.5b": {
762
702
  "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
763
703
  },