@lobehub/lobehub 2.0.0-next.105 → 2.0.0-next.107
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/image.json +8 -0
- package/locales/ar/models.json +110 -64
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/image.json +8 -0
- package/locales/bg-BG/models.json +98 -68
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/image.json +8 -0
- package/locales/de-DE/models.json +176 -38
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/image.json +8 -0
- package/locales/en-US/models.json +176 -38
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/image.json +8 -0
- package/locales/es-ES/models.json +176 -38
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/image.json +8 -0
- package/locales/fa-IR/models.json +110 -64
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/image.json +8 -0
- package/locales/fr-FR/models.json +110 -64
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/image.json +8 -0
- package/locales/it-IT/models.json +176 -38
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/image.json +8 -0
- package/locales/ja-JP/models.json +110 -64
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/image.json +8 -0
- package/locales/ko-KR/models.json +110 -64
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/image.json +8 -0
- package/locales/nl-NL/models.json +176 -38
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/image.json +8 -0
- package/locales/pl-PL/models.json +110 -64
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/image.json +8 -0
- package/locales/pt-BR/models.json +176 -38
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/image.json +8 -0
- package/locales/ru-RU/models.json +98 -68
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/image.json +8 -0
- package/locales/tr-TR/models.json +110 -64
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/image.json +8 -0
- package/locales/vi-VN/models.json +176 -38
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/image.json +8 -0
- package/locales/zh-CN/models.json +179 -38
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/image.json +8 -0
- package/locales/zh-TW/models.json +176 -38
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/model-runtime/src/providers/google/createImage.test.ts +6 -5
- package/packages/model-runtime/src/providers/google/createImage.ts +12 -8
- package/packages/model-runtime/src/types/error.ts +11 -8
- package/packages/model-runtime/src/utils/googleErrorParser.ts +5 -0
- package/packages/model-runtime/src/utils/postProcessModelList.ts +15 -13
- package/src/server/routers/async/image.ts +20 -2
|
@@ -720,25 +720,28 @@
|
|
|
720
720
|
"description": "Claude 3 Opus, Anthropic'in en zeki modeli olup, yüksek karmaşıklıktaki görevlerde piyasa lideri performans sunar. Açık uçlu istemleri ve daha önce görülmemiş senaryoları üstün akıcılık ve insan benzeri anlayışla yönetebilir."
|
|
721
721
|
},
|
|
722
722
|
"anthropic/claude-3.5-haiku": {
|
|
723
|
-
"description": "Claude 3.5 Haiku,
|
|
723
|
+
"description": "Claude 3.5 Haiku, hız, kodlama doğruluğu ve araç kullanımı açısından geliştirilmiş yeteneklere sahiptir. Hız ve araç etkileşimi gerektiren senaryolar için uygundur."
|
|
724
724
|
},
|
|
725
725
|
"anthropic/claude-3.5-sonnet": {
|
|
726
|
-
"description": "Claude 3.5 Sonnet,
|
|
726
|
+
"description": "Claude 3.5 Sonnet, Sonnet ailesinin hızlı ve verimli bir modelidir; daha iyi kodlama ve akıl yürütme performansı sunar. Bazı sürümleri zamanla Sonnet 3.7 gibi modellerle değiştirilecektir."
|
|
727
727
|
},
|
|
728
728
|
"anthropic/claude-3.7-sonnet": {
|
|
729
|
-
"description": "Claude 3.7 Sonnet,
|
|
729
|
+
"description": "Claude 3.7 Sonnet, Sonnet serisinin yükseltilmiş versiyonudur; daha güçlü akıl yürütme ve kodlama yetenekleri sunar, kurumsal düzeyde karmaşık görevler için uygundur."
|
|
730
|
+
},
|
|
731
|
+
"anthropic/claude-haiku-4.5": {
|
|
732
|
+
"description": "Claude Haiku 4.5, Anthropic’in yüksek performanslı hızlı modelidir; yüksek doğruluğu korurken son derece düşük gecikme süresi sunar."
|
|
730
733
|
},
|
|
731
734
|
"anthropic/claude-opus-4": {
|
|
732
|
-
"description": "
|
|
735
|
+
"description": "Opus 4, Anthropic’in amiral gemisi modelidir; karmaşık görevler ve kurumsal uygulamalar için özel olarak tasarlanmıştır."
|
|
733
736
|
},
|
|
734
737
|
"anthropic/claude-opus-4.1": {
|
|
735
|
-
"description": "
|
|
738
|
+
"description": "Opus 4.1, Anthropic’in üst düzey modelidir; programlama, karmaşık akıl yürütme ve sürekli görevler için optimize edilmiştir."
|
|
736
739
|
},
|
|
737
740
|
"anthropic/claude-sonnet-4": {
|
|
738
|
-
"description": "Claude Sonnet 4,
|
|
741
|
+
"description": "Claude Sonnet 4, Anthropic’in hibrit akıl yürütme modelidir; düşünsel ve düşünsel olmayan yetenekleri bir arada sunar."
|
|
739
742
|
},
|
|
740
743
|
"anthropic/claude-sonnet-4.5": {
|
|
741
|
-
"description": "Claude Sonnet 4.5, Anthropic
|
|
744
|
+
"description": "Claude Sonnet 4.5, Anthropic’in en yeni hibrit akıl yürütme modelidir; karmaşık akıl yürütme ve kodlama için optimize edilmiştir."
|
|
742
745
|
},
|
|
743
746
|
"ascend-tribe/pangu-pro-moe": {
|
|
744
747
|
"description": "Pangu-Pro-MoE 72B-A16B, 72 milyar parametreli ve 16 milyar parametre aktive eden seyrek büyük bir dil modelidir. Bu model, grup tabanlı uzman karışımı (MoGE) mimarisine dayanır; uzman seçim aşamasında uzmanları gruplar halinde düzenler ve her grupta token başına eşit sayıda uzmanı aktive ederek uzman yük dengesini sağlar. Bu sayede Ascend platformunda modelin dağıtım verimliliği önemli ölçüde artırılmıştır."
|
|
@@ -761,6 +764,9 @@
|
|
|
761
764
|
"baidu/ERNIE-4.5-300B-A47B": {
|
|
762
765
|
"description": "ERNIE-4.5-300B-A47B, Baidu tarafından geliştirilen, karma uzman (MoE) mimarisine dayanan büyük bir dil modelidir. Modelin toplam parametre sayısı 300 milyar olup, çıkarım sırasında her token için yalnızca 47 milyar parametre aktive edilir; böylece güçlü performans ile hesaplama verimliliği dengelenir. ERNIE 4.5 serisinin temel modellerinden biri olarak, metin anlama, üretme, akıl yürütme ve programlama gibi görevlerde üstün yetenekler sergiler. Model, metin ve görsel modların ortak eğitimiyle çok modlu heterojen MoE ön eğitim yöntemi kullanarak genel yeteneklerini artırmış, özellikle talimat takibi ve dünya bilgisi hafızasında etkileyici sonuçlar elde etmiştir."
|
|
763
766
|
},
|
|
767
|
+
"baidu/ernie-5.0-thinking-preview": {
|
|
768
|
+
"description": "ERNIE 5.0 Thinking Preview, Baidu’nun yeni nesil yerel çok modlu Wenxin modelidir; çok modlu anlama, komut takibi, yaratım, gerçeklere dayalı soru-cevap ve araç çağırma konularında uzmandır."
|
|
769
|
+
},
|
|
764
770
|
"c4ai-aya-expanse-32b": {
|
|
765
771
|
"description": "Aya Expanse, talimat ayarlama, veri arbitrajı, tercih eğitimi ve model birleştirme yenilikleri ile tek dilli modellerin performansını zorlamak için tasarlanmış yüksek performanslı bir 32B çok dilli modeldir. 23 dili desteklemektedir."
|
|
766
772
|
},
|
|
@@ -869,6 +875,9 @@
|
|
|
869
875
|
"codex-mini-latest": {
|
|
870
876
|
"description": "codex-mini-latest, Codex CLI için özel olarak ince ayarlanmış o4-mini versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
|
|
871
877
|
},
|
|
878
|
+
"cogito-2.1:671b": {
|
|
879
|
+
"description": "Cogito v2.1 671B, ücretsiz ticari kullanım için sunulan ABD menşeli açık kaynak büyük dil modelidir; üstün performansı, yüksek token akıl yürütme verimliliği, 128k uzun bağlam desteği ve güçlü genel yetenekleriyle öne çıkar."
|
|
880
|
+
},
|
|
872
881
|
"cogview-4": {
|
|
873
882
|
"description": "CogView-4, Zhipu'nun Çince karakter üretimini destekleyen ilk açık kaynaklı metinden görsele modelidir. Anlam anlayışı, görüntü üretim kalitesi ve Çince-İngilizce metin üretme yeteneklerinde kapsamlı iyileştirmeler sunar. Her uzunlukta Çince ve İngilizce çift dilli girişi destekler ve verilen aralıkta herhangi bir çözünürlükte görüntü oluşturabilir."
|
|
874
883
|
},
|
|
@@ -1139,6 +1148,9 @@
|
|
|
1139
1148
|
"deepseek-vl2-small": {
|
|
1140
1149
|
"description": "DeepSeek VL2 Small, hafif çok modlu sürüm, kaynak kısıtlı ve yüksek eşzamanlılık gerektiren senaryolar için uygundur."
|
|
1141
1150
|
},
|
|
1151
|
+
"deepseek/deepseek-chat": {
|
|
1152
|
+
"description": "DeepSeek-V3, DeepSeek ekibinin yüksek performanslı hibrit akıl yürütme modelidir; karmaşık görevler ve araç entegrasyonu için uygundur."
|
|
1153
|
+
},
|
|
1142
1154
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1143
1155
|
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
|
1144
1156
|
},
|
|
@@ -1146,13 +1158,13 @@
|
|
|
1146
1158
|
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
|
1147
1159
|
},
|
|
1148
1160
|
"deepseek/deepseek-chat-v3.1": {
|
|
1149
|
-
"description": "DeepSeek-V3.1,
|
|
1161
|
+
"description": "DeepSeek-V3.1, DeepSeek’in uzun bağlam destekli hibrit akıl yürütme modelidir; düşünsel/düşünsel olmayan modlar ve araç entegrasyonunu destekler."
|
|
1150
1162
|
},
|
|
1151
1163
|
"deepseek/deepseek-r1": {
|
|
1152
1164
|
"description": "DeepSeek R1 modeli küçük bir sürüm güncellemesi aldı, mevcut sürüm DeepSeek-R1-0528'dir. Son güncellemede, DeepSeek R1 artırılmış hesaplama kaynakları ve eğitim sonrası algoritma optimizasyon mekanizmaları kullanarak çıkarım derinliği ve yeteneğini önemli ölçüde artırdı. Model, matematik, programlama ve genel mantık gibi birçok kıyaslama testinde üstün performans gösterir ve genel performansı artık O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
|
|
1153
1165
|
},
|
|
1154
1166
|
"deepseek/deepseek-r1-0528": {
|
|
1155
|
-
"description": "DeepSeek
|
|
1167
|
+
"description": "DeepSeek R1 0528, DeepSeek’in güncellenmiş varyantıdır; açık kaynak kullanılabilirliği ve derin akıl yürütmeye odaklanır."
|
|
1156
1168
|
},
|
|
1157
1169
|
"deepseek/deepseek-r1-0528:free": {
|
|
1158
1170
|
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
|
|
@@ -1175,6 +1187,9 @@
|
|
|
1175
1187
|
"deepseek/deepseek-r1:free": {
|
|
1176
1188
|
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
|
1177
1189
|
},
|
|
1190
|
+
"deepseek/deepseek-reasoner": {
|
|
1191
|
+
"description": "DeepSeek-V3 Thinking (reasoner), DeepSeek’in deneysel akıl yürütme modelidir; yüksek karmaşıklıktaki akıl yürütme görevleri için uygundur."
|
|
1192
|
+
},
|
|
1178
1193
|
"deepseek/deepseek-v3": {
|
|
1179
1194
|
"description": "Gelişmiş çıkarım yeteneklerine sahip hızlı, genel amaçlı büyük dil modeli."
|
|
1180
1195
|
},
|
|
@@ -1523,8 +1538,14 @@
|
|
|
1523
1538
|
"gemini-2.5-pro-preview-06-05": {
|
|
1524
1539
|
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modelidir; kodlama, matematik ve STEM alanlarındaki karmaşık problemleri çözebilir ve uzun bağlam kullanarak büyük veri setleri, kod kütüphaneleri ve belgeleri analiz edebilir."
|
|
1525
1540
|
},
|
|
1541
|
+
"gemini-3-pro-image-preview": {
|
|
1542
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
|
1543
|
+
},
|
|
1544
|
+
"gemini-3-pro-image-preview:image": {
|
|
1545
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
|
1546
|
+
},
|
|
1526
1547
|
"gemini-3-pro-preview": {
|
|
1527
|
-
"description": "Gemini 3 Pro,
|
|
1548
|
+
"description": "Gemini 3 Pro, dünyanın en iyi çok modlu anlama modeli olup, Google’ın şimdiye kadarki en güçlü yapay zekâsı ve ortam programlama modelidir; gelişmiş görsel efektler ve derin etkileşim sunar, tüm bunlar ileri düzey akıl yürütme yetenekleri üzerine inşa edilmiştir."
|
|
1528
1549
|
},
|
|
1529
1550
|
"gemini-flash-latest": {
|
|
1530
1551
|
"description": "Gemini Flash'ın en son sürümü"
|
|
@@ -1650,7 +1671,7 @@
|
|
|
1650
1671
|
"description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
|
|
1651
1672
|
},
|
|
1652
1673
|
"google/gemini-2.0-flash": {
|
|
1653
|
-
"description": "Gemini 2.0 Flash,
|
|
1674
|
+
"description": "Gemini 2.0 Flash, Google’ın yüksek performanslı akıl yürütme modelidir; genişletilmiş çok modlu görevler için uygundur."
|
|
1654
1675
|
},
|
|
1655
1676
|
"google/gemini-2.0-flash-001": {
|
|
1656
1677
|
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
|
@@ -1661,14 +1682,23 @@
|
|
|
1661
1682
|
"google/gemini-2.0-flash-lite": {
|
|
1662
1683
|
"description": "Gemini 2.0 Flash Lite, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
|
|
1663
1684
|
},
|
|
1685
|
+
"google/gemini-2.0-flash-lite-001": {
|
|
1686
|
+
"description": "Gemini 2.0 Flash Lite, Gemini ailesinin hafif sürümüdür; gecikme ve maliyet performansını artırmak için varsayılan olarak düşünme devre dışı bırakılmıştır, ancak parametre ile etkinleştirilebilir."
|
|
1687
|
+
},
|
|
1664
1688
|
"google/gemini-2.5-flash": {
|
|
1665
|
-
"description": "Gemini 2.5 Flash
|
|
1689
|
+
"description": "Gemini 2.5 Flash (Lite/Pro/Flash) serisi, Google’ın düşük gecikmeden yüksek performansa kadar uzanan akıl yürütme modelleridir."
|
|
1690
|
+
},
|
|
1691
|
+
"google/gemini-2.5-flash-image": {
|
|
1692
|
+
"description": "Gemini 2.5 Flash Image (Nano Banana), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
|
1693
|
+
},
|
|
1694
|
+
"google/gemini-2.5-flash-image-free": {
|
|
1695
|
+
"description": "Gemini 2.5 Flash Image ücretsiz sürümüdür; sınırlı çok modlu üretim kotasını destekler."
|
|
1666
1696
|
},
|
|
1667
1697
|
"google/gemini-2.5-flash-image-preview": {
|
|
1668
1698
|
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
|
|
1669
1699
|
},
|
|
1670
1700
|
"google/gemini-2.5-flash-lite": {
|
|
1671
|
-
"description": "Gemini 2.5 Flash
|
|
1701
|
+
"description": "Gemini 2.5 Flash Lite, Gemini 2.5’in hafif sürümüdür; gecikme ve maliyet açısından optimize edilmiştir, yüksek verimlilik gerektiren senaryolar için uygundur."
|
|
1672
1702
|
},
|
|
1673
1703
|
"google/gemini-2.5-flash-preview": {
|
|
1674
1704
|
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
@@ -1677,11 +1707,23 @@
|
|
|
1677
1707
|
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1678
1708
|
},
|
|
1679
1709
|
"google/gemini-2.5-pro": {
|
|
1680
|
-
"description": "Gemini 2.5 Pro,
|
|
1710
|
+
"description": "Gemini 2.5 Pro, Google’ın amiral gemisi akıl yürütme modelidir; uzun bağlam ve karmaşık görevleri destekler."
|
|
1711
|
+
},
|
|
1712
|
+
"google/gemini-2.5-pro-free": {
|
|
1713
|
+
"description": "Gemini 2.5 Pro ücretsiz sürümüdür; sınırlı çok modlu uzun bağlam desteği sunar, deneme ve hafif iş akışları için uygundur."
|
|
1681
1714
|
},
|
|
1682
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1683
1716
|
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları çözme yeteneğine sahiptir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
|
|
1684
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview-free": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image ücretsiz sürümüdür; sınırlı çok modlu üretim kotasını destekler."
|
|
1720
|
+
},
|
|
1721
|
+
"google/gemini-3-pro-preview": {
|
|
1722
|
+
"description": "Gemini 3 Pro, Gemini serisinin yeni nesil çok modlu akıl yürütme modelidir; metin, ses, görüntü, video gibi çeşitli girdileri anlayabilir ve karmaşık görevler ile büyük kod tabanlarını işleyebilir."
|
|
1723
|
+
},
|
|
1724
|
+
"google/gemini-3-pro-preview-free": {
|
|
1725
|
+
"description": "Gemini 3 Pro ücretsiz önizleme sürümüdür; standart sürümle aynı çok modlu anlama ve akıl yürütme yeteneklerine sahiptir, ancak ücretsiz kota ve hız sınırlamaları nedeniyle deneyim ve düşük frekanslı kullanım için daha uygundur."
|
|
1726
|
+
},
|
|
1685
1727
|
"google/gemini-embedding-001": {
|
|
1686
1728
|
"description": "İngilizce, çok dilli ve kod görevlerinde üstün performans sunan en gelişmiş gömme modeli."
|
|
1687
1729
|
},
|
|
@@ -2057,21 +2099,36 @@
|
|
|
2057
2099
|
"inception/mercury-coder-small": {
|
|
2058
2100
|
"description": "Mercury Coder Small, kod üretimi, hata ayıklama ve yeniden yapılandırma görevleri için ideal olup, minimum gecikme sunar."
|
|
2059
2101
|
},
|
|
2060
|
-
"inclusionAI/Ling-1T": {
|
|
2061
|
-
"description": "Ling-1T, \"Ling 2.0\" serisinin ilk amiral gemisi non-thinking modelidir. Toplamda 1 trilyon parametreye ve her token için yaklaşık 50 milyar aktif parametreye sahiptir. Ling 2.0 mimarisi üzerine inşa edilen Ling-1T, verimli akıl yürütme ve ölçeklenebilir bilişsel yeteneklerin sınırlarını zorlamak için tasarlanmıştır. Ling-1T-base, 200 trilyondan fazla yüksek kaliteli ve akıl yürütme yoğun token üzerinde eğitilmiştir."
|
|
2062
|
-
},
|
|
2063
2102
|
"inclusionAI/Ling-flash-2.0": {
|
|
2064
2103
|
"description": "Ling-flash-2.0, Ant Group Bailing ekibi tarafından yayınlanan Ling 2.0 mimari serisinin üçüncü modelidir. Bu, hibrit uzman (MoE) modeli olup toplam parametre sayısı 100 milyara ulaşırken, her token için yalnızca 6.1 milyar parametre aktive eder (embedding dışı 4.8 milyar). Hafif yapılandırmaya sahip bu model, birçok otoriter değerlendirmede 40 milyar seviyesindeki yoğun (Dense) modeller ve daha büyük ölçekli MoE modelleriyle rekabet eden hatta onları aşan performans sergiler. Model, \"büyük model büyük parametre demektir\" anlayışı altında yüksek verimlilik yollarını keşfetmek için üstün mimari tasarım ve eğitim stratejileriyle geliştirilmiştir."
|
|
2065
2104
|
},
|
|
2066
2105
|
"inclusionAI/Ling-mini-2.0": {
|
|
2067
2106
|
"description": "Ling-mini-2.0, MoE mimarisi temelinde küçük boyutlu yüksek performanslı büyük dil modelidir. Toplam 16 milyar parametreye sahip olup, her token için yalnızca 1.4 milyar parametre aktive eder (embedding dışı 789 milyon), böylece çok yüksek üretim hızı sağlar. Verimli MoE tasarımı ve büyük ölçekli yüksek kaliteli eğitim verileri sayesinde, aktive edilen parametre sayısı sadece 1.4 milyar olmasına rağmen, Ling-mini-2.0 altındaki 10 milyar yoğun LLM ve daha büyük ölçekli MoE modelleriyle kıyaslanabilir üst düzey performans gösterir."
|
|
2068
2107
|
},
|
|
2069
|
-
"inclusionAI/Ring-1T": {
|
|
2070
|
-
"description": "Ring-1T, Bailing ekibi tarafından geliştirilen trilyon parametre ölçeğinde açık kaynaklı bir düşünce modelidir. Ling 2.0 mimarisi ve Ling-1T-base temel modeli üzerine inşa edilmiştir. Toplamda 1 trilyon parametreye ve 50 milyar aktif parametreye sahiptir. 128K'ya kadar bağlam penceresini destekler. Model, büyük ölçekli doğrulanabilir ödül takviyeli öğrenme ile optimize edilmiştir."
|
|
2071
|
-
},
|
|
2072
2108
|
"inclusionAI/Ring-flash-2.0": {
|
|
2073
2109
|
"description": "Ring-flash-2.0, Ling-flash-2.0-base üzerine derinlemesine optimize edilmiş yüksek performanslı düşünme modelidir. Hibrit uzman (MoE) mimarisi kullanır, toplam parametre sayısı 100 milyardır ancak her çıkarımda yalnızca 6.1 milyar parametre aktive edilir. Model, özgün icepop algoritması ile MoE büyük modellerin pekiştirmeli öğrenme (RL) eğitimindeki kararsızlık sorununu çözerek karmaşık çıkarım yeteneğini uzun dönemli eğitimlerde sürekli artırır. Ring-flash-2.0, matematik yarışmaları, kod üretimi ve mantıksal çıkarım gibi zorlu kıyaslama testlerinde önemli atılımlar yapmış, performansı 40 milyar parametre altındaki en iyi yoğun modelleri aşmakla kalmayıp, daha büyük ölçekli açık kaynak MoE modelleri ve kapalı kaynak yüksek performanslı düşünme modelleriyle rekabet edebilir. Model karmaşık çıkarıma odaklanmasına rağmen yaratıcı yazma gibi görevlerde de başarılıdır. Ayrıca, yüksek verimli mimari tasarımı sayesinde güçlü performans sunarken yüksek hızda çıkarım yapar ve yüksek eşzamanlılık senaryolarında düşünme modeli dağıtım maliyetlerini önemli ölçüde azaltır."
|
|
2074
2110
|
},
|
|
2111
|
+
"inclusionai/ling-1t": {
|
|
2112
|
+
"description": "Ling-1T, inclusionAI’nin 1T MoE büyük modelidir; yüksek yoğunluklu akıl yürütme görevleri ve büyük ölçekli bağlamlar için optimize edilmiştir."
|
|
2113
|
+
},
|
|
2114
|
+
"inclusionai/ling-flash-2.0": {
|
|
2115
|
+
"description": "Ling-flash-2.0, inclusionAI’nin MoE modelidir; verimlilik ve akıl yürütme performansı açısından optimize edilmiştir, orta ve büyük ölçekli görevler için uygundur."
|
|
2116
|
+
},
|
|
2117
|
+
"inclusionai/ling-mini-2.0": {
|
|
2118
|
+
"description": "Ling-mini-2.0, inclusionAI’nin hafifletilmiş MoE modelidir; akıl yürütme yeteneğini korurken maliyeti önemli ölçüde azaltır."
|
|
2119
|
+
},
|
|
2120
|
+
"inclusionai/ming-flash-omini-preview": {
|
|
2121
|
+
"description": "Ming-flash-omni Preview, inclusionAI’nin çok modlu modelidir; ses, görüntü ve video girişlerini destekler, görüntü işleme ve ses tanıma yetenekleri optimize edilmiştir."
|
|
2122
|
+
},
|
|
2123
|
+
"inclusionai/ring-1t": {
|
|
2124
|
+
"description": "Ring-1T, inclusionAI’nin trilyon parametreli MoE düşünme modelidir; büyük ölçekli akıl yürütme ve araştırma görevleri için uygundur."
|
|
2125
|
+
},
|
|
2126
|
+
"inclusionai/ring-flash-2.0": {
|
|
2127
|
+
"description": "Ring-flash-2.0, inclusionAI’nin yüksek verimlilikli senaryolar için geliştirdiği Ring model varyantıdır; hız ve maliyet verimliliğine odaklanır."
|
|
2128
|
+
},
|
|
2129
|
+
"inclusionai/ring-mini-2.0": {
|
|
2130
|
+
"description": "Ring-mini-2.0, inclusionAI’nin yüksek verimlilikli hafif MoE sürümüdür; özellikle eşzamanlı kullanım senaryoları için tasarlanmıştır."
|
|
2131
|
+
},
|
|
2075
2132
|
"internlm/internlm2_5-7b-chat": {
|
|
2076
2133
|
"description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
|
|
2077
2134
|
},
|
|
@@ -2123,6 +2180,12 @@
|
|
|
2123
2180
|
"kimi-k2-instruct": {
|
|
2124
2181
|
"description": "Kimi K2 Instruct, Kimi'nin resmi çıkarım modeli, uzun bağlam, kodlama, soru-cevap gibi çoklu senaryoları destekler."
|
|
2125
2182
|
},
|
|
2183
|
+
"kimi-k2-thinking": {
|
|
2184
|
+
"description": "K2 Uzun Düşünme Modeli, 256k bağlamı destekler; çok adımlı araç çağırma ve düşünme yeteneğine sahiptir, daha karmaşık problemleri çözmede uzmandır."
|
|
2185
|
+
},
|
|
2186
|
+
"kimi-k2-thinking-turbo": {
|
|
2187
|
+
"description": "K2 Uzun Düşünme Modeli’nin yüksek hızlı sürümüdür; 256k bağlamı destekler, derin akıl yürütmede uzmandır ve saniyede 60-100 token üretim hızına ulaşır."
|
|
2188
|
+
},
|
|
2126
2189
|
"kimi-k2-turbo-preview": {
|
|
2127
2190
|
"description": "kimi-k2, son derece güçlü kod yazma ve Agent yeteneklerine sahip MoE mimarisine dayanan bir temel modeldir; toplam parametre sayısı 1T, aktif (etkin) parametre sayısı 32B. Genel bilgi çıkarımı, programlama, matematik ve Agent gibi ana kategorilerde yapılan karşılaştırmalı performans testlerinde K2 modelinin performansı diğer önde gelen açık kaynak modellerinin üzerindedir."
|
|
2128
2191
|
},
|
|
@@ -2135,6 +2198,9 @@
|
|
|
2135
2198
|
"kimi-thinking-preview": {
|
|
2136
2199
|
"description": "kimi-thinking-preview modeli, Ay'ın karanlık yüzü tarafından sunulan çok modlu akıl yürütme ve genel akıl yürütme yeteneklerine sahip çok modlu düşünme modelidir; derin akıl yürütmede uzmandır ve daha zor sorunların çözümüne yardımcı olur."
|
|
2137
2200
|
},
|
|
2201
|
+
"kuaishou/kat-coder-pro-v1": {
|
|
2202
|
+
"description": "KAT-Coder-Pro-V1 (sınırlı süreli ücretsiz), kod anlama ve otomatik programlama üzerine odaklanır; verimli programlama ajan görevleri için uygundur."
|
|
2203
|
+
},
|
|
2138
2204
|
"learnlm-1.5-pro-experimental": {
|
|
2139
2205
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
|
2140
2206
|
},
|
|
@@ -2466,7 +2532,7 @@
|
|
|
2466
2532
|
"description": "MiniMax M2, kodlama ve yardımcı iş akışları için özel olarak geliştirilmiş, verimli bir büyük dil modelidir."
|
|
2467
2533
|
},
|
|
2468
2534
|
"minimax/minimax-m2": {
|
|
2469
|
-
"description": "
|
|
2535
|
+
"description": "MiniMax-M2, kodlama ve ajan görevlerinde üstün performans gösteren, yüksek maliyet-performans oranına sahip bir modeldir; çeşitli mühendislik senaryoları için uygundur."
|
|
2470
2536
|
},
|
|
2471
2537
|
"minimaxai/minimax-m2": {
|
|
2472
2538
|
"description": "MiniMax-M2, 230 milyar toplam parametreye ve 10 milyar etkin parametreye sahip kompakt, hızlı ve ekonomik bir Uzman Karışımı (MoE) modelidir. Kodlama ve yapay zekâ görevlerinde üstün performans sunmak üzere tasarlanmış olup, güçlü bir genel zekâ kapasitesini de korur. Çoklu dosya düzenleme, kodla-çalıştır-düzelt döngüsü, test doğrulama ve düzeltme ile karmaşık uzun zincirli araç zincirlerinde üstün performans göstererek geliştirici iş akışları için ideal bir seçimdir."
|
|
@@ -2615,12 +2681,21 @@
|
|
|
2615
2681
|
"moonshotai/kimi-k2": {
|
|
2616
2682
|
"description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
|
|
2617
2683
|
},
|
|
2684
|
+
"moonshotai/kimi-k2-0711": {
|
|
2685
|
+
"description": "Kimi K2 0711, Kimi serisinin Instruct sürümüdür; yüksek kaliteli kodlama ve araç çağırma senaryoları için uygundur."
|
|
2686
|
+
},
|
|
2618
2687
|
"moonshotai/kimi-k2-0905": {
|
|
2619
|
-
"description": "
|
|
2688
|
+
"description": "Kimi K2 0905, Kimi serisinin 0905 güncellemesidir; bağlam ve akıl yürütme performansını artırır, kodlama senaryoları için optimize edilmiştir."
|
|
2620
2689
|
},
|
|
2621
2690
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2622
2691
|
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2623
2692
|
},
|
|
2693
|
+
"moonshotai/kimi-k2-thinking": {
|
|
2694
|
+
"description": "Kimi K2 Thinking, Moonshot tarafından derin akıl yürütme görevleri için optimize edilmiş düşünme modelidir; genel ajan yeteneklerine sahiptir."
|
|
2695
|
+
},
|
|
2696
|
+
"moonshotai/kimi-k2-thinking-turbo": {
|
|
2697
|
+
"description": "Kimi K2 Thinking Turbo, Kimi K2 Thinking’in yüksek hızlı sürümüdür; derin akıl yürütme yeteneğini korurken yanıt gecikmesini önemli ölçüde azaltır."
|
|
2698
|
+
},
|
|
2624
2699
|
"morph/morph-v3-fast": {
|
|
2625
2700
|
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 4500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
|
|
2626
2701
|
},
|
|
@@ -2702,30 +2777,14 @@
|
|
|
2702
2777
|
"openai/gpt-4-turbo": {
|
|
2703
2778
|
"description": "OpenAI'den gpt-4-turbo, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. Bilgi kesim tarihi Nisan 2023'tür ve 128.000 token bağlam penceresine sahiptir."
|
|
2704
2779
|
},
|
|
2705
|
-
"openai/gpt-4.1": {
|
|
2706
|
-
|
|
2707
|
-
},
|
|
2708
|
-
"openai/gpt-
|
|
2709
|
-
|
|
2710
|
-
},
|
|
2711
|
-
"openai/gpt-
|
|
2712
|
-
|
|
2713
|
-
},
|
|
2714
|
-
"openai/gpt-4o": {
|
|
2715
|
-
"description": "OpenAI'den GPT-4o, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. GPT-4 Turbo performansını daha hızlı ve daha uygun maliyetli API ile eşler."
|
|
2716
|
-
},
|
|
2717
|
-
"openai/gpt-4o-mini": {
|
|
2718
|
-
"description": "OpenAI'nin en gelişmiş ve maliyet etkin küçük modeli olan GPT-4o mini, çok modludur (metin veya görüntü girişi alır ve metin çıktısı verir) ve gpt-3.5-turbo'dan daha zeki ancak aynı hızdadır."
|
|
2719
|
-
},
|
|
2720
|
-
"openai/gpt-5": {
|
|
2721
|
-
"description": "GPT-5, OpenAI'nin amiral gemisi dil modeli olup, karmaşık çıkarım, geniş gerçek dünya bilgisi, kod yoğun ve çok adımlı ajan görevlerinde üstün performans gösterir."
|
|
2722
|
-
},
|
|
2723
|
-
"openai/gpt-5-mini": {
|
|
2724
|
-
"description": "GPT-5 mini, maliyet optimize edilmiş bir model olup, çıkarım/sohbet görevlerinde üstün performans sunar. Hız, maliyet ve yetenek arasında en iyi dengeyi sağlar."
|
|
2725
|
-
},
|
|
2726
|
-
"openai/gpt-5-nano": {
|
|
2727
|
-
"description": "GPT-5 nano, yüksek işlem hacmine sahip model olup, basit talimat veya sınıflandırma görevlerinde üstün performans gösterir."
|
|
2728
|
-
},
|
|
2780
|
+
"openai/gpt-4.1": {},
|
|
2781
|
+
"openai/gpt-4.1-mini": {},
|
|
2782
|
+
"openai/gpt-4.1-nano": {},
|
|
2783
|
+
"openai/gpt-4o": {},
|
|
2784
|
+
"openai/gpt-4o-mini": {},
|
|
2785
|
+
"openai/gpt-5": {},
|
|
2786
|
+
"openai/gpt-5-mini": {},
|
|
2787
|
+
"openai/gpt-5-nano": {},
|
|
2729
2788
|
"openai/gpt-oss-120b": {
|
|
2730
2789
|
"description": "Son derece yetenekli genel amaçlı büyük dil modeli olup, güçlü ve kontrol edilebilir çıkarım yeteneklerine sahiptir."
|
|
2731
2790
|
},
|
|
@@ -2750,9 +2809,7 @@
|
|
|
2750
2809
|
"openai/o3-mini-high": {
|
|
2751
2810
|
"description": "o3-mini yüksek akıl yürütme seviyesi, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
|
|
2752
2811
|
},
|
|
2753
|
-
"openai/o4-mini": {
|
|
2754
|
-
"description": "OpenAI'nin o4-mini modeli, hızlı ve maliyet etkin çıkarım sunar ve boyutuna göre özellikle matematik (AIME kıyaslamasında en iyi performans), kodlama ve görsel görevlerde üstün performans gösterir."
|
|
2755
|
-
},
|
|
2812
|
+
"openai/o4-mini": {},
|
|
2756
2813
|
"openai/o4-mini-high": {
|
|
2757
2814
|
"description": "o4-mini yüksek çıkarım seviyesinde, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
|
2758
2815
|
},
|
|
@@ -2954,9 +3011,7 @@
|
|
|
2954
3011
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
2955
3012
|
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
|
|
2956
3013
|
},
|
|
2957
|
-
"qwen/qwen3-14b": {
|
|
2958
|
-
"description": "Qwen3-14B, Qwen3 serisindeki yoğun 14.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için tasarlanmıştır. Matematik, programlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevler için ince ayar yapılmıştır. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
|
2959
|
-
},
|
|
3014
|
+
"qwen/qwen3-14b": {},
|
|
2960
3015
|
"qwen/qwen3-14b:free": {
|
|
2961
3016
|
"description": "Qwen3-14B, Qwen3 serisindeki yoğun 14.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için tasarlanmıştır. Matematik, programlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevler için ince ayar yapılmıştır. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
|
2962
3017
|
},
|
|
@@ -3275,9 +3330,6 @@
|
|
|
3275
3330
|
"step-r1-v-mini": {
|
|
3276
3331
|
"description": "Bu model, güçlü görüntü anlama yeteneğine sahip bir çıkarım büyük modelidir, görüntü ve metin bilgilerini işleyebilir, derin düşünme sonrası metin oluşturma çıktısı verebilir. Bu model, görsel çıkarım alanında öne çıkarken, birinci sınıf matematik, kod ve metin çıkarım yeteneklerine de sahiptir. Bağlam uzunluğu 100k'dır."
|
|
3277
3332
|
},
|
|
3278
|
-
"step3": {
|
|
3279
|
-
"description": "Step3, StepStar tarafından geliştirilen çok modlu bir modeldir ve güçlü görsel anlama yeteneklerine sahiptir."
|
|
3280
|
-
},
|
|
3281
3333
|
"stepfun-ai/step3": {
|
|
3282
3334
|
"description": "Step3, StepFun tarafından yayımlanan öncü çok modlu çıkarım modelidir; 321 milyar toplam ve 38 milyar aktif parametreye sahip Uzman Karışımı (MoE) mimarisi üzerine inşa edilmiştir. Model uçtan uca bir tasarımla kod çözme maliyetlerini en aza indirmeyi hedeflerken görsel-dilsel çıkarımda üst düzey performans sunar. Çoklu matris faktorizasyonlu dikkat (MFA) ile dikkat-FFN ayrıştırmasının (AFD) uyumlu tasarımı sayesinde Step3, hem üst düzey hem de düşük kapasiteli hızlandırıcılarda yüksek verimliliğini korur. Ön eğitim aşamasında Step3, 20 trilyondan fazla metin tokeni ve 4 trilyon görsel-metin tokeni işlemiş olup on'dan fazla dili kapsar. Model, matematik, kodlama ve çok modlu görevler gibi çeşitli kıyaslama testlerinde açık kaynak modeller arasında lider düzeye ulaşmıştır."
|
|
3283
3335
|
},
|
|
@@ -3386,12 +3438,8 @@
|
|
|
3386
3438
|
"wizardlm2:8x22b": {
|
|
3387
3439
|
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
|
3388
3440
|
},
|
|
3389
|
-
"x-ai/grok-4-fast": {
|
|
3390
|
-
|
|
3391
|
-
},
|
|
3392
|
-
"x-ai/grok-code-fast-1": {
|
|
3393
|
-
"description": "Hızlı ve ekonomik bir çıkarım modeli olan grok-code-fast-1'i tanıtmaktan memnuniyet duyuyoruz; özellikle temsilci tabanlı kodlamada üstün performans sergiler."
|
|
3394
|
-
},
|
|
3441
|
+
"x-ai/grok-4-fast": {},
|
|
3442
|
+
"x-ai/grok-code-fast-1": {},
|
|
3395
3443
|
"x1": {
|
|
3396
3444
|
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
|
|
3397
3445
|
},
|
|
@@ -3452,9 +3500,7 @@
|
|
|
3452
3500
|
"yi-vision-v2": {
|
|
3453
3501
|
"description": "Karmaşık görsel görevler için model, birden fazla resme dayalı yüksek performanslı anlama ve analiz yetenekleri sunar."
|
|
3454
3502
|
},
|
|
3455
|
-
"z-ai/glm-4.6": {
|
|
3456
|
-
"description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6; ileri düzey kodlama, uzun metin işleme, çıkarım ve yapay zeka yeteneklerinde seleflerini tamamen geride bırakıyor."
|
|
3457
|
-
},
|
|
3503
|
+
"z-ai/glm-4.6": {},
|
|
3458
3504
|
"zai-org/GLM-4.5": {
|
|
3459
3505
|
"description": "GLM-4.5, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
|
|
3460
3506
|
},
|
|
@@ -191,6 +191,9 @@
|
|
|
191
191
|
"xinference": {
|
|
192
192
|
"description": "Xorbits Inference (Xinference), çeşitli yapay zeka modellerinin çalıştırılmasını ve entegrasyonunu kolaylaştıran açık kaynaklı bir platformdur. Xinference ile bulutta veya yerel ortamda herhangi bir açık kaynaklı LLM, gömme modeli ve çoklu modal modeli kullanarak çıkarım yapabilir ve güçlü yapay zeka uygulamaları oluşturabilirsiniz."
|
|
193
193
|
},
|
|
194
|
+
"zenmux": {
|
|
195
|
+
"description": "ZenMux, OpenAI, Anthropic, Google VertexAI gibi birçok popüler yapay zeka hizmeti arayüzünü destekleyen birleşik bir yapay zeka hizmetleri toplama platformudur. Esnek yönlendirme yetenekleri sayesinde farklı yapay zeka modelleri arasında kolayca geçiş yapabilir ve yönetebilirsiniz."
|
|
196
|
+
},
|
|
194
197
|
"zeroone": {
|
|
195
198
|
"description": "01.AI, yapay zeka 2.0 çağının yapay zeka teknolojisine odaklanmakta ve 'insan + yapay zeka' yenilik ve uygulamalarını teşvik etmektedir. Son derece güçlü modeller ve gelişmiş yapay zeka teknolojileri kullanarak insan üretkenliğini artırmayı ve teknolojik güçlendirmeyi hedeflemektedir."
|
|
196
199
|
},
|
package/locales/vi-VN/image.json
CHANGED