@lobehub/chat 1.136.12 → 1.136.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +13 -1
- package/CHANGELOG.md +34 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/modelProvider.json +12 -0
- package/locales/ar/models.json +39 -24
- package/locales/bg-BG/modelProvider.json +12 -0
- package/locales/bg-BG/models.json +39 -24
- package/locales/de-DE/modelProvider.json +12 -0
- package/locales/de-DE/models.json +39 -24
- package/locales/en-US/modelProvider.json +12 -0
- package/locales/en-US/models.json +39 -24
- package/locales/es-ES/modelProvider.json +12 -0
- package/locales/es-ES/models.json +39 -24
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -24
- package/locales/fr-FR/modelProvider.json +12 -0
- package/locales/fr-FR/models.json +39 -24
- package/locales/it-IT/modelProvider.json +12 -0
- package/locales/it-IT/models.json +39 -24
- package/locales/ja-JP/modelProvider.json +12 -0
- package/locales/ja-JP/models.json +39 -24
- package/locales/ko-KR/modelProvider.json +12 -0
- package/locales/ko-KR/models.json +39 -24
- package/locales/nl-NL/modelProvider.json +12 -0
- package/locales/nl-NL/models.json +39 -24
- package/locales/pl-PL/modelProvider.json +12 -0
- package/locales/pl-PL/models.json +39 -24
- package/locales/pt-BR/modelProvider.json +12 -0
- package/locales/pt-BR/models.json +39 -24
- package/locales/ru-RU/modelProvider.json +12 -0
- package/locales/ru-RU/models.json +39 -24
- package/locales/tr-TR/modelProvider.json +12 -0
- package/locales/tr-TR/models.json +39 -24
- package/locales/vi-VN/modelProvider.json +12 -0
- package/locales/vi-VN/models.json +39 -24
- package/locales/zh-CN/modelProvider.json +12 -0
- package/locales/zh-CN/models.json +39 -24
- package/locales/zh-TW/modelProvider.json +12 -0
- package/locales/zh-TW/models.json +39 -24
- package/package.json +3 -3
- package/packages/const/src/settings/index.ts +1 -0
- package/packages/database/package.json +7 -5
- package/packages/electron-client-ipc/src/events/index.ts +2 -2
- package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
- package/packages/electron-client-ipc/src/types/index.ts +1 -1
- package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
- package/packages/file-loaders/package.json +1 -2
- package/packages/file-loaders/src/loadFile.ts +4 -1
- package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
- package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
- package/packages/file-loaders/src/loaders/index.ts +2 -0
- package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
- package/packages/file-loaders/src/types.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
- package/packages/model-runtime/src/providerTestUtils.ts +0 -5
- package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
- package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
- package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
- package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
- package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
- package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
- package/packages/model-runtime/src/types/structureOutput.ts +13 -1
- package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
- package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
- package/packages/types/src/aiChat.ts +13 -1
- package/packages/types/src/index.ts +1 -0
- package/src/features/ChatInput/InputEditor/index.tsx +39 -26
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
- package/src/server/routers/lambda/agent.ts +2 -3
- package/src/server/routers/lambda/aiChat.ts +33 -1
- package/src/server/routers/lambda/chunk.ts +2 -2
- package/src/services/electron/file.ts +1 -2
- package/src/services/electron/localFileService.ts +40 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
- package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
- package/src/tools/local-system/Placeholder/index.tsx +25 -0
- package/src/tools/placeholders.ts +3 -0
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Microsoft tarafından dağıtılmıştır; DeepSeek R1 modeli küçük bir sürüm güncellemesi almıştır, mevcut sürüm DeepSeek-R1-0528'dir. En son güncellemede, DeepSeek R1 hesaplama kaynaklarını artırarak ve eğitim sonrası algoritma optimizasyon mekanizmasını tanıtarak çıkarım derinliği ve tahmin yeteneğini önemli ölçüde geliştirmiştir. Bu model matematik, programlama ve genel mantık gibi çeşitli kıyaslama testlerinde üstün performans göstermiştir ve genel performansı O3 ve Gemini 2.5 Pro gibi önde gelen modellerle yakındır."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B, Baichuan Intelligence tarafından geliştirilen bir karma uzman modelidir ve güçlü akıl yürütme yeteneklerine sahiptir."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B, Baichuan Zhi Neng tarafından geliştirilen 130 milyar parametreye sahip açık kaynaklı ticari bir büyük dil modelidir ve yetkili Çince ve İngilizce benchmark'larda aynı boyuttaki en iyi sonuçları elde etmiştir."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4, rol yapma ve duygusal destek için tasarlanmıştır, uzun süreli çoklu hafıza ve kişiselleştirilmiş diyalogları destekler, geniş bir uygulama yelpazesine sahiptir."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3, ZhiPu AI ve Tsinghua KEG laboratuvarı tarafından yayınlanan kapalı kaynaklı bir modeldir. Büyük miktarda Çince ve İngilizce belirteçlerin önceden eğitilmesi ve insan tercihleriyle hizalama eğitimi ile, birinci nesil modellere göre MMLU, C-Eval ve GSM8K'da sırasıyla %16, %36 ve %280'lük iyileştirmeler elde edilmiştir ve Çince görevler listesinde C-Eval zirvesine ulaşmıştır. Bilgi hacmi, çıkarım yeteneği ve yaratıcılık gerektiren senaryolarda kullanılabilir, örneğin reklam metni, roman yazımı, bilgi tabanlı yazım, kod oluşturma vb."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base, ZhiPu tarafından geliştirilen ChatGLM serisinin en yeni nesli olan 6 milyar parametrelik açık kaynaklı temel modeldir."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus, DeepSeek tarafından yayınlanan V3.1 modelinin güncellenmiş versiyonudur ve hibrit ajan büyük dil modeli olarak konumlandırılmıştır. Bu güncelleme, modelin mevcut yeteneklerini koruyarak kullanıcı geri bildirimlerine dayalı sorunları düzeltmeye ve kararlılığı artırmaya odaklanmıştır. Dil tutarlılığını önemli ölçüde iyileştirmiş, Çince ve İngilizce karışımı ile anormal karakterlerin görünümünü azaltmıştır. Model, farklı görevler için sohbet şablonları aracılığıyla esnek geçiş yapılabilen “Düşünme Modu” ve “Düşünmeme Modu”nu entegre etmiştir. Önemli bir iyileştirme olarak, V3.1-Terminus, kod ajanı (Code Agent) ve arama ajanı (Search Agent) performansını artırarak araç çağrıları ve çok adımlı karmaşık görevlerin yürütülmesinde daha güvenilir hale getirmiştir."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "DeepSeek V3.2 Exp modeli, hem düşünme hem de düşünme dışı modları destekleyen hibrit bir akıl yürütme mimarisine sahiptir."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1, DeepSeek'in tamamen yeni hibrit çıkarım modeli olup, düşünme ve düşünmeme olmak üzere iki çıkarım modunu destekler ve DeepSeek-R1-0528'e kıyasla düşünme verimliliği daha yüksektir. Post-Training optimizasyonu sayesinde, Agent araç kullanımı ve akıllı görev performansı önemli ölçüde artırılmıştır. 128k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token'a kadar çıkabilir."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus, DeepSeek tarafından geliştirilen ve uç cihazlar için optimize edilmiş büyük dil modeli sürümüdür."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren yeni nesil çıkarım modeli, derinlemesine analiz gerektiren görevler için uygundur."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B, Baidu Wenxin tarafından geliştirilen karma uzman modelidir ve güçlü akıl yürütme ile çok dilli yeteneklere sahiptir."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B, Baidu Wenxin tarafından geliştirilen son derece büyük ölçekli karma uzman modelidir ve üstün akıl yürütme yeteneklerine sahiptir."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Wenxin büyük modeli 4.5, Baidu tarafından geliştirilen yeni nesil yerel çok modlu temel büyük modeldir. Birden fazla modun birleşik modellemesi ile işbirlikçi optimizasyon sağlar, çok modlu anlama yeteneği mükemmeldir; dil yetenekleri, anlama, üretim, mantık ve hafıza yetenekleri önemli ölçüde geliştirilmiştir, yanılsamaları ortadan kaldırma, mantıksal akıl yürütme ve kod yetenekleri belirgin şekilde artmıştır."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat,
|
|
1461
|
+
"description": "GLM-4-9B-Chat, anlamsal anlama, matematik, akıl yürütme, kodlama ve bilgi alanlarında yüksek performans sergiler. Web tarama, kod yürütme, özel araç çağırma ve uzun metin akıl yürütme gibi özellikleri destekler. Japonca, Korece ve Almanca dahil olmak üzere 26 dili destekler."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Daha düşük maliyetli bir GPT Image 1 sürümüdür, metin ve görsel girdilerini doğal olarak destekler ve görsel çıktılar üretebilir."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Bu modelin kullanımı için başvuru gereklidir. GPT-OSS-120B, OpenAI tarafından geliştirilen açık kaynaklı büyük ölçekli bir dil modelidir ve güçlü metin üretme yeteneklerine sahiptir."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Bu modelin kullanımı için başvuru gereklidir. GPT-OSS-20B, OpenAI tarafından geliştirilen açık kaynaklı orta ölçekli bir dil modelidir ve verimli metin üretme yeteneklerine sahiptir."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B, OpenAI tarafından yayımlanan büyük ölçekli açık kaynak dil modelidir ve MXFP4 kuantizasyon teknolojisini kullanır. Amiral gemisi model olarak çoklu GPU veya yüksek performanslı iş istasyonu ortamlarında çalıştırılması gerekmektedir. Karmaşık çıkarım, kod üretimi ve çok dilli işleme konularında üstün performans sunar ve gelişmiş fonksiyon çağrıları ile araç entegrasyonunu destekler."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct, Moonshot AI tarafından geliştirilen büyük bir dil modelidir ve son derece uzun bağlamları işleyebilme yeteneğine sahiptir."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2, son derece güçlü kod yazma ve Agent yeteneklerine sahip MoE mimarisine dayanan bir temel modeldir; toplam parametre sayısı 1T, aktif (etkin) parametre sayısı 32B. Genel bilgi çıkarımı, programlama, matematik ve Agent gibi ana kategorilerde yapılan karşılaştırmalı performans testlerinde K2 modelinin performansı diğer önde gelen açık kaynak modellerinin üzerindedir."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2, Meta tarafından geliştirilmiş ve açık kaynaklı büyük dil modeli (LLM) serisidir. Bu, 7 milyar ile 70 milyar parametre arasında değişen, önceden eğitilmiş ve ince ayarlanmış üretici metin modellerinden oluşan bir gruptır. Mimari açısından, Llama2, optimize edilmiş dönüştürücü mimarisi kullanan bir otoregresif dil modelidir. Ayarlanmış versiyonlar, faydalılık ve güvenliğin insan tercihleriyle hizalanması için gözetimli ince ayarlama (SFT) ve insan geri bildirimleriyle güçlendirilmiş öğrenme (RLHF) kullanır. Llama2, Llama serisine göre çeşitli akademik veri kümelerinde daha iyi performans gösterir ve birçok diğer modelin tasarım ve geliştirilmesine ilham verir."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: Orta-büyük ölçekli Llama modeli, akıl yürütme yeteneği ile yüksek işlem hacmini dengeler."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile faydalılığını ve güvenliğini artırmıştır. Talimat ayarlı versiyonu, çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içindeki önceden eğitilmiş ve talimat ayarlanmış bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli konuşma kullanım durumları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık kaynak ve kapalı sohbet modelinden daha üstündür."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K, büyük bağlam işleme yeteneği ile donatılmıştır ve daha güçlü bağlam anlama ve mantıksal çıkarım yetenekleri sunmaktadır. 32K token'lık metin girişi desteklemekte olup, uzun belgelerin okunması, özel bilgi sorgulama gibi senaryolar için uygundur."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct, Wuwen Xinqiong tarafından geliştirilen düşük parametreli, yüksek verimli bir modeldir."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Kurumsal özel hizmetler için tasarlanmış modeldir ve eşzamanlı hizmetleri içerir."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Kurumsal özel hizmetler için tasarlanmış modeldir ve eşzamanlı hizmetleri içerir."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2, Qwen ekibinin yeni nesil büyük dil modeli serisidir. Bu model, Transformer mimarisine dayanır ve SwiGLU aktivasyon fonksiyonu, dikkat QKV yanlısı (attention QKV bias), grup sorgu dikkati (group query attention), kayan pencere dikkatı (mixture of sliding window attention) ve tam dikkatin karışımı gibi teknikleri kullanır. Ayrıca, Qwen ekibi, çeşitli doğal diller ve kodları destekleyen belirteçleyiciyi (tokenizer) de geliştirdi."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2, Qwen ekibinin yeni nesil büyük dil modeli serisidir. Bu model, Transformer mimarisine dayanır ve SwiGLU aktivasyon fonksiyonu, dikkat QKV bias, grup sorgu dikkati, kayan pencere dikkatini ve tam dikkat karışımını içeren teknolojiler kullanır. Ayrıca, Qwen ekibi, çeşitli doğal diller ve kodları için belirteçleyiciyi de geliştirdi."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Qwen3 tabanlı yeni nesil düşünme modlu açık kaynak modeli, önceki sürüme (Tongyi Qianwen 3-235B-A22B-Thinking-2507) kıyasla komutlara uyum yeteneği artırılmış ve modelin özetleyici yanıtları daha özlü hale getirilmiştir."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct, Tongyi Qianwen tarafından geliştirilen çok modlu bir modeldir ve görsel anlama ile akıl yürütmeyi destekler."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking, Tongyi Qianwen tarafından geliştirilen çok modlu bir akıl yürütme modelidir ve görsel anlama ile akıl yürütmeyi destekler."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL, görsel (resim) anlama yeteneğine sahip metin üretim modelidir. Sadece OCR (resim metni tanıma) yapmakla kalmaz, aynı zamanda ürün fotoğraflarından özellik çıkarma, alıştırma resimlerinden problem çözme gibi özetleme ve çıkarım yapabilir."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Bu model, güçlü görüntü anlama yeteneğine sahip bir çıkarım büyük modelidir, görüntü ve metin bilgilerini işleyebilir, derin düşünme sonrası metin oluşturma çıktısı verebilir. Bu model, görsel çıkarım alanında öne çıkarken, birinci sınıf matematik, kod ve metin çıkarım yeteneklerine de sahiptir. Bağlam uzunluğu 100k'dır."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3, StepStar tarafından geliştirilen çok modlu bir modeldir ve güçlü görsel anlama yeteneklerine sahiptir."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3, StepFun tarafından yayımlanan öncü çok modlu çıkarım modelidir; 321 milyar toplam ve 38 milyar aktif parametreye sahip Uzman Karışımı (MoE) mimarisi üzerine inşa edilmiştir. Model uçtan uca bir tasarımla kod çözme maliyetlerini en aza indirmeyi hedeflerken görsel-dilsel çıkarımda üst düzey performans sunar. Çoklu matris faktorizasyonlu dikkat (MFA) ile dikkat-FFN ayrıştırmasının (AFD) uyumlu tasarımı sayesinde Step3, hem üst düzey hem de düşük kapasiteli hızlandırıcılarda yüksek verimliliğini korur. Ön eğitim aşamasında Step3, 20 trilyondan fazla metin tokeni ve 4 trilyon görsel-metin tokeni işlemiş olup on'dan fazla dili kapsar. Model, matematik, kodlama ve çok modlu görevler gibi çeşitli kıyaslama testlerinde açık kaynak modeller arasında lider düzeye ulaşmıştır."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "xAI'nin en yeni ve en büyük amiral gemisi modeli olup, doğal dil, matematik ve çıkarımda eşsiz performans sunar—mükemmel çok yönlü oyuncu."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Yeni nesil yüz milyar parametreli model, güçlü soru yanıtlama ve metin üretim yetenekleri sunar."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Vui lòng nhập id mô hình, ví dụ gpt-4o hoặc claude-3.5-sonnet",
|
|
285
285
|
"title": "ID mô hình"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Cấu hình này chỉ bật khả năng tạo hình ảnh của mô hình, hiệu quả cụ thể hoàn toàn phụ thuộc vào bản thân mô hình, vui lòng tự kiểm tra xem mô hình có khả năng tạo hình ảnh khả dụng hay không",
|
|
289
|
+
"title": "Hỗ trợ tạo hình ảnh"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Cấu hình mô hình tùy chỉnh",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Cấu hình này sẽ chỉ kích hoạt khả năng suy nghĩ sâu của mô hình, hiệu quả cụ thể hoàn toàn phụ thuộc vào chính mô hình, vui lòng tự kiểm tra xem mô hình này có khả năng suy nghĩ sâu có thể sử dụng hay không",
|
|
290
294
|
"title": "Hỗ trợ suy nghĩ sâu"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Cấu hình này chỉ bật khả năng tìm kiếm trực tuyến của công cụ tìm kiếm tích hợp trong mô hình, việc có hỗ trợ công cụ tìm kiếm tích hợp hay không phụ thuộc vào bản thân mô hình, vui lòng tự kiểm tra khả năng sử dụng của công cụ tìm kiếm tích hợp trong mô hình",
|
|
298
|
+
"title": "Hỗ trợ tìm kiếm trực tuyến"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Cài đặt số Token tối đa mà mô hình hỗ trợ",
|
|
294
302
|
"title": "Cửa sổ ngữ cảnh tối đa",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Vui lòng chọn loại mô hình",
|
|
310
318
|
"title": "Loại mô hình"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Cấu hình này chỉ bật cấu hình nhận diện video trong ứng dụng, việc có hỗ trợ nhận diện hay không hoàn toàn phụ thuộc vào bản thân mô hình, vui lòng tự kiểm tra khả năng nhận diện video của mô hình",
|
|
322
|
+
"title": "Hỗ trợ nhận diện video"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Cấu hình này chỉ mở khả năng tải lên hình ảnh trong ứng dụng, việc hỗ trợ nhận diện hoàn toàn phụ thuộc vào mô hình, xin hãy tự kiểm tra khả năng nhận diện hình ảnh của mô hình này.",
|
|
314
326
|
"title": "Hỗ trợ nhận diện hình ảnh"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Được triển khai và cung cấp bởi Microsoft; mô hình DeepSeek R1 đã được nâng cấp phiên bản nhỏ, phiên bản hiện tại là DeepSeek-R1-0528. Trong bản cập nhật mới nhất, DeepSeek R1 đã cải thiện đáng kể độ sâu suy luận và khả năng suy đoán bằng cách tăng tài nguyên tính toán và giới thiệu cơ chế tối ưu thuật toán giai đoạn hậu huấn luyện. Mô hình này thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn về toán học, lập trình và logic tổng quát, hiệu suất tổng thể đã gần đạt đến các mô hình hàng đầu như O3 và Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B là mô hình chuyên gia hỗn hợp do Baichuan Intelligence phát triển, sở hữu khả năng suy luận mạnh mẽ."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B là mô hình ngôn ngữ lớn mã nguồn mở có thể thương mại hóa với 130 tỷ tham số, được phát triển bởi Baichuan Intelligence, đã đạt được hiệu suất tốt nhất trong cùng kích thước trên các benchmark tiếng Trung và tiếng Anh."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 được thiết kế đặc biệt cho vai trò và sự đồng hành cảm xúc, hỗ trợ trí nhớ đa vòng dài và đối thoại cá nhân hóa, ứng dụng rộng rãi."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 là mô hình đóng nguồn do Trung tâm AI Zhizhu và Phòng thí nghiệm KEG của Đại học Thanh Hoa phát hành. Mô hình này đã được tiền huấn luyện với lượng lớn các bộ định danh tiếng Trung và tiếng Anh, cũng như được huấn luyện để phù hợp với sở thích của con người. So với mô hình thế hệ đầu tiên, ChatGLM3 đã cải thiện 16%, 36% và 280% trên các bảng xếp hạng MMLU, C-Eval và GSM8K, đồng thời đứng đầu bảng xếp hạng C-Eval cho các tác vụ tiếng Trung. Mô hình này phù hợp cho các trường hợp yêu cầu cao về lượng kiến thức, khả năng suy luận và sáng tạo, như viết quảng cáo, viết tiểu thuyết, viết nội dung kiến thức, và tạo mã nguồn."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base là mô hình cơ bản có quy mô 6 tỷ tham số, thuộc thế hệ mới nhất của loạt ChatGLM do Zhipu phát triển."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus là phiên bản cập nhật của mô hình V3.1 do DeepSeek phát hành, được định vị là mô hình ngôn ngữ lớn với trí tuệ hỗn hợp. Bản cập nhật này tập trung sửa các vấn đề phản hồi từ người dùng và nâng cao độ ổn định trong khi vẫn giữ nguyên khả năng của mô hình. Nó cải thiện đáng kể tính nhất quán ngôn ngữ, giảm thiểu việc sử dụng lẫn lộn tiếng Trung và tiếng Anh cũng như các ký tự bất thường. Mô hình tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode), người dùng có thể linh hoạt chuyển đổi qua các mẫu trò chuyện để phù hợp với các nhiệm vụ khác nhau. Một tối ưu quan trọng là V3.1-Terminus tăng cường hiệu suất của Agent mã (Code Agent) và Agent tìm kiếm (Search Agent), giúp chúng đáng tin cậy hơn trong việc gọi công cụ và thực hiện các nhiệm vụ phức tạp nhiều bước."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Mô hình DeepSeek V3.2 Exp là kiến trúc suy luận hỗn hợp, hỗ trợ cả chế độ tư duy và không tư duy."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp hoàn toàn mới do DeepSeek phát hành, hỗ trợ hai chế độ suy luận: suy nghĩ và không suy nghĩ, với hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Sau khi tối ưu hóa Post-Training, việc sử dụng công cụ Agent và hiệu suất nhiệm vụ của tác nhân được cải thiện đáng kể. Hỗ trợ cửa sổ ngữ cảnh 128k, độ dài đầu ra tối đa lên đến 64k tokens."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus là phiên bản tối ưu hóa cho thiết bị đầu cuối của mô hình ngôn ngữ lớn do DeepSeek phát triển, được thiết kế đặc biệt cho các thiết bị đầu cuối."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: Mô hình suy luận thế hệ tiếp theo, nâng cao khả năng suy luận phức tạp và tư duy chuỗi, phù hợp cho các tác vụ cần phân tích sâu."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B là mô hình chuyên gia hỗn hợp do Wenxin của Baidu phát triển, có khả năng suy luận và hỗ trợ đa ngôn ngữ mạnh mẽ."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B là mô hình chuyên gia hỗn hợp quy mô siêu lớn do Wenxin của Baidu phát triển, nổi bật với khả năng suy luận vượt trội."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Mô hình lớn văn tâm 4.5 là thế hệ mới của mô hình nền tảng đa phương tiện tự phát triển của Baidu, đạt được tối ưu hóa hợp tác thông qua mô hình hóa đa phương tiện, có khả năng hiểu đa phương tiện xuất sắc; có khả năng ngôn ngữ tinh vi hơn, khả năng hiểu, tạo ra, logic và ghi nhớ được cải thiện toàn diện, giảm ảo giác, khả năng suy luận logic và mã được nâng cao rõ rệt."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong
|
|
1461
|
+
"description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong các lĩnh vực như ngữ nghĩa, toán học, suy luận, lập trình và tri thức. Ngoài ra còn hỗ trợ duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ bao gồm tiếng Nhật, tiếng Hàn, tiếng Đức."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Phiên bản tiết kiệm chi phí hơn của GPT Image 1, hỗ trợ gốc đầu vào văn bản và hình ảnh, đồng thời tạo đầu ra hình ảnh."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Cần đăng ký để trải nghiệm. GPT-OSS-120B là mô hình ngôn ngữ mã nguồn mở quy mô lớn do OpenAI phát hành, có khả năng tạo văn bản mạnh mẽ."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Cần đăng ký để trải nghiệm. GPT-OSS-20B là mô hình ngôn ngữ mã nguồn mở quy mô trung bình do OpenAI phát hành, có khả năng tạo văn bản hiệu quả."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B là mô hình ngôn ngữ lớn mã nguồn mở do OpenAI phát hành, sử dụng công nghệ lượng tử hóa MXFP4, thuộc dòng mô hình hàng đầu. Cần môi trường đa GPU hoặc máy trạm hiệu năng cao để vận hành, có hiệu suất vượt trội trong suy luận phức tạp, tạo mã và xử lý đa ngôn ngữ, hỗ trợ gọi hàm nâng cao và tích hợp bộ công cụ."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct là mô hình ngôn ngữ lớn do Moonshot AI phát triển, có khả năng xử lý ngữ cảnh siêu dài."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 là một mô hình nền tảng kiến trúc MoE với khả năng xử lý mã và Agent rất mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra chuẩn về hiệu năng ở các hạng mục chính như suy luận kiến thức tổng quát, lập trình, toán học và Agent, mô hình K2 cho hiệu năng vượt trội so với các mô hình mã nguồn mở phổ biến khác."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 là một loạt các mô hình ngôn ngữ lớn (LLM) do Meta phát triển và công khai, bao gồm các mô hình tạo văn bản đã được tiền huấn luyện và tinh chỉnh với quy mô từ 7 tỷ đến 700 tỷ tham số. Về mặt kiến trúc, Llama2 là một mô hình ngôn ngữ hồi quy tự động sử dụng kiến trúc biến đổi tối ưu. Các phiên bản đã điều chỉnh sử dụng tinh chỉnh có giám sát (SFT) và học củng cố với phản hồi từ con người (RLHF) để đồng bộ hóa với sở thích của con người về tính hữu ích và an toàn. Llama2 có hiệu suất vượt trội hơn so với loạt Llama trên nhiều bộ dữ liệu học thuật, cung cấp ý tưởng cho thiết kế và phát triển của nhiều mô hình khác."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: Mô hình Llama cỡ trung, cân bằng giữa khả năng suy luận và hiệu suất xử lý."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương với mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường từ phản hồi của con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn của nó được tối ưu hóa cho đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng kín trong nhiều tiêu chuẩn ngành. Ngày cắt đứt kiến thức là tháng 12 năm 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Mô hình ngôn ngữ lớn Meta Llama 3.3 (LLM) đa ngôn ngữ là mô hình tạo ra dựa trên 70B (đầu vào/đầu ra văn bản) đã được huấn luyện và điều chỉnh theo chỉ dẫn. Mô hình thuần văn bản Llama 3.3 được tối ưu hóa cho các trường hợp hội thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng khác trên các tiêu chuẩn ngành thông thường."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K được cấu hình với khả năng xử lý ngữ cảnh lớn, có khả năng hiểu ngữ cảnh và suy luận logic mạnh mẽ hơn, hỗ trợ đầu vào văn bản 32K tokens, phù hợp cho việc đọc tài liệu dài, hỏi đáp kiến thức riêng tư và các tình huống khác."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct là mô hình hiệu quả với số lượng tham số nhỏ do Wuwen Xinqiong phát triển."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Mô hình 70 tỷ tham số mạnh mẽ, xuất sắc trong lý luận, lập trình và các ứng dụng ngôn ngữ rộng lớn."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Mô hình chuyên dụng cho dịch vụ doanh nghiệp, hỗ trợ dịch vụ đồng thời."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Mô hình chuyên dụng cho dịch vụ doanh nghiệp, hỗ trợ dịch vụ đồng thời."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 là thế hệ mô hình ngôn ngữ lớn mới do đội Qwen phát triển. Nó dựa trên kiến trúc Transformer và sử dụng hàm kích hoạt SwiGLU, chệch QKV chú ý (attention QKV bias), chú ý truy vấn nhóm (group query attention), hỗn hợp chú ý cửa sổ trượt (mixture of sliding window attention) và chú ý đầy đủ. Ngoài ra, đội Qwen còn cải tiến bộ tách từ để thích ứng với nhiều ngôn ngữ tự nhiên và mã nguồn."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 là một loạt mô hình ngôn ngữ lớn mới do đội Qwen phát triển. Nó dựa trên kiến trúc Transformer và sử dụng hàm kích hoạt SwiGLU, chệch QKV chú ý (attention QKV bias), chú ý truy vấn nhóm (group query attention), hỗn hợp chú ý cửa sổ trượt (mixture of sliding window attention) và chú ý đầy đủ. Ngoài ra, đội Qwen còn cải tiến bộ tách từ để thích ứng với nhiều ngôn ngữ tự nhiên và mã nguồn."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 là thế hệ mô hình ngôn ngữ quy mô lớn mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Mô hình mã nguồn mở thế hệ mới có chế độ suy nghĩ dựa trên Qwen3, so với phiên bản trước (Thông Nghĩa Thiên Vấn 3-235B-A22B-Thinking-2507) có khả năng tuân thủ chỉ dẫn được nâng cao, và các phản hồi tóm tắt của mô hình trở nên ngắn gọn hơn."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct là mô hình đa phương thức do Tongyi Qianwen phát triển, hỗ trợ hiểu và suy luận hình ảnh."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking là mô hình suy luận đa phương thức do Tongyi Qianwen phát triển, hỗ trợ hiểu và suy luận hình ảnh."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL là mô hình sinh văn bản có khả năng hiểu thị giác (hình ảnh), không chỉ thực hiện OCR (nhận dạng chữ trong ảnh) mà còn có thể tóm tắt và suy luận thêm, ví dụ như trích xuất thuộc tính từ ảnh sản phẩm, giải bài tập dựa trên hình ảnh minh họa."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Mô hình này là một mô hình suy luận lớn với khả năng hiểu hình ảnh mạnh mẽ, có thể xử lý thông tin hình ảnh và văn bản, và xuất ra nội dung văn bản sau khi suy nghĩ sâu. Mô hình này thể hiện xuất sắc trong lĩnh vực suy luận hình ảnh, đồng thời có khả năng toán học, mã và suy luận văn bản hàng đầu. Độ dài ngữ cảnh là 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 là mô hình đa phương thức do Jiexue Xingchen phát triển, có khả năng hiểu hình ảnh mạnh mẽ."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 là mô hình suy luận đa mô thức tiên tiến được phát hành bởi 阶跃星辰 (StepFun). Mô hình này được xây dựng trên kiến trúc Mixture-of-Experts (MoE) với 321B tham số tổng và 38B tham số kích hoạt. Thiết kế đầu-cuối (end-to-end) nhằm tối thiểu hóa chi phí giải mã, đồng thời cung cấp hiệu năng hàng đầu trong suy luận thị giác-ngôn ngữ. Thông qua thiết kế phối hợp giữa Multi-Matrix Factorized Attention (MFA) và Attention-FFN Decoupling (AFD), Step3 duy trì hiệu suất vượt trội trên cả bộ tăng tốc cao cấp và các thiết bị tăng tốc cấp thấp. Trong giai đoạn tiền huấn luyện, Step3 đã xử lý hơn 20T token văn bản và 4T token hỗn hợp ảnh-văn bản, bao phủ hơn mười ngôn ngữ. Mô hình này đã đạt vị thế dẫn đầu trong các benchmark mã nguồn mở ở nhiều lĩnh vực, bao gồm toán học, mã (code) và các nhiệm vụ đa mô thức."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "Mô hình hàng đầu mới nhất và tuyệt vời nhất của xAI, cung cấp hiệu suất vô song trong ngôn ngữ tự nhiên, toán học và suy luận — lựa chọn toàn năng hoàn hảo."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 là phiên bản nâng cấp của Yi. Nó sử dụng 500B token từ cơ sở dữ liệu chất lượng cao để tiếp tục tiền huấn luyện trên Yi, và được tinh chỉnh trên 3M mẫu đa dạng."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Mô hình với hàng trăm tỷ tham số mới, cung cấp khả năng hỏi đáp và sinh văn bản mạnh mẽ."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "请输入模型 id,例如 gpt-4o 或 claude-3.5-sonnet",
|
|
285
285
|
"title": "模型 ID"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "此配置将仅开启模型生成图片的能力,具体效果完全取决于模型本身,请自行测试该模型是否具备可用的图片生成能力",
|
|
289
|
+
"title": "支持图片生成"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "自定义模型配置",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "此配置将仅开启模型深度思考的能力,具体效果完全取决于模型本身,请自行测试该模型是否具备可用的深度思考能力",
|
|
290
294
|
"title": "支持深度思考"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "此配置将仅开启模型内置搜索引擎的联网搜索能力,是否支持内置搜索引擎取决于模型本身,请自行测试该模型的内置搜索引擎能力可用性",
|
|
298
|
+
"title": "支持联网搜索"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "设置模型支持的最大 Token 数",
|
|
294
302
|
"title": "最大上下文窗口",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "请选择模型类型",
|
|
310
318
|
"title": "模型类型"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "此配置将仅开启应用中的视频识别配置,是否支持识别完全取决于模型本身,请自行测试该模型的视频识别能力可用性",
|
|
322
|
+
"title": "支持视频识别"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "此配置将仅开启应用中的图片上传配置,是否支持识别完全取决于模型本身,请自行测试该模型的视觉识别能力可用性",
|
|
314
326
|
"title": "支持视觉识别"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "由微软部署提供; DeepSeek R1型号已进行小版本升级,当前版本为DeepSeek-R1-0528。在最新的更新中,DeepSeek R1通过增加计算资源和引入后训练阶段的算法优化机制,大幅提升了推理深度和推断能力。该模型在数学、编程和通用逻辑等多个基准测试中表现出色,其整体性能已接近领先模型,如O3和Gemini 2.5 Pro 。"
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B 是百川智能推出的混合专家模型,具备强大的推理能力。"
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B 百川智能开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果"
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。"
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base 是由智谱开发的 ChatGLM 系列最新一代的 60 亿参数规模的开源的基础模型。"
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)发布的 V3.1 模型的更新版本,定位为混合智能体大语言模型。此次更新在保持模型原有能力的基础上,专注于修复用户反馈的问题并提升稳定性。它显著改善了语言一致性,减少了中英文混用和异常字符的出现。模型集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode),用户可通过聊天模板灵活切换以适应不同任务。作为一个重要的优化,V3.1-Terminus 增强了代码智能体(Code Agent)和搜索智能体(Search Agent)的性能,使其在工具调用和执行多步复杂任务方面更加可靠。"
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "DeepSeek V3.2 Exp 模型为混合推理架构模型,同时支持思考模式与非思考模式。"
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。支持 128k 上下文窗口,输出长度支持最大 64k tokens。"
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus 是深度求索推出的终端优化版本大语言模型,专为终端设备优化。"
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1:下一代推理模型,提升了复杂推理与链路思考能力,适合需要深入分析的任务。"
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B 是百度文心推出的混合专家模型,具备强大的推理和多语言能力。"
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B 是百度文心推出的超大规模混合专家模型,具备卓越的推理能力。"
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "文心大模型4.5是百度自主研发的新一代原生多模态基础大模型,通过多个模态联合建模实现协同优化,多模态理解能力优秀;具备更精进的语言能力,理解、生成、逻辑、记忆能力全面提升,去幻觉、逻辑推理、代码能力显著提升。"
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。"
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "成本更低的 GPT Image 1 版本,原生支持文本与图像输入并生成图像输出。"
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "该模型需要申请体验。GPT-OSS-120B 是 OpenAI 推出的开源大规模语言模型,具备强大的文本生成能力。"
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "该模型需要申请体验。GPT-OSS-20B 是 OpenAI 推出的开源中型语言模型,具备高效的文本生成能力。"
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B 是 OpenAI 发布的大型开源语言模型,采用 MXFP4 量化技术,为旗舰级模型。需要多GPU或高性能工作站环境运行,在复杂推理、代码生成和多语言处理方面具备卓越性能,支持高级函数调用和工具集成。"
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "kimi-k2-0905-preview 模型上下文长度为 256k,具备更强的 Agentic Coding 能力、更突出的前端代码的美观度和实用性、以及更好的上下文理解能力。"
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct 是月之暗面推出的大语言模型,具有超长上下文处理能力。"
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。"
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 是由 Meta 开发并开源的大型语言模型(LLM)系列,这是一组从 70 亿到 700 亿参数不同规模、经过预训练和微调的生成式文本模型。架构层面,LLama2 是一个使用优化型转换器架构的自动回归语言模型。调整后的版本使用有监督的微调(SFT)和带有人类反馈的强化学习(RLHF)以对齐人类对有用性和安全性的偏好。Llama2 较 Llama 系列在多种学术数据集上有着更加不俗的表现,为大量其他模型提供了设计和开发的思路。"
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B:中大型 Llama 模型,兼顾推理能力与吞吐。"
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 年 12 月。"
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K 配置了大上下文处理能力,更强的上下文理解和逻辑推理能力,支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景"
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct 是无问芯穹推出的小参数量高效模型。"
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。"
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "企业专属服务专用模型,包并发服务。"
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "企业专属服务专用模型,包并发服务。"
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "QVQ-72B-Preview 是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力。"
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。"
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。"
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "基于 Qwen3 的新一代思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Thinking-2507)指令遵循能力有提升、模型总结回复更加精简。"
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct 是通义千问推出的多模态模型,支持视觉理解和推理。"
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking 是通义千问推出的多模态推理模型,支持视觉理解和推理。"
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。"
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "该模型是拥有强大的图像理解能力的推理大模型,能够处理图像和文字信息,经过深度思考后输出文本生成文本内容。该模型在视觉推理领域表现突出,同时拥有第一梯队的数学、代码、文本推理能力。上下文长度为100k。"
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 是阶跃星辰推出的多模态模型,具备强大的视觉理解能力。"
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 是由阶跃星辰(StepFun)发布的前沿多模态推理模型,它基于拥有 321B 总参数和 38B 激活参数的专家混合(MoE)架构构建。该模型采用端到端设计,旨在最小化解码成本,同时在视觉语言推理方面提供顶级性能。通过多矩阵分解注意力(MFA)和注意力-FFN 解耦(AFD)的协同设计,Step3 在旗舰级和低端加速器上都能保持卓越的效率。在预训练阶段,Step3 处理了超过 20T 的文本 token 和 4T 的图文混合 token,覆盖十多种语言。该模型在数学、代码及多模态等多个基准测试中均达到了开源模型的领先水平。"
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "xAI 最新和最伟大的旗舰模型,在自然语言、数学和推理方面提供无与伦比的性能——完美的全能选手。"
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。"
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "全新千亿参数模型,提供超强问答及文本生成能力。"
|
|
3166
3181
|
},
|