@lobehub/chat 1.129.0 → 1.129.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +66 -0
- package/changelog/v1.json +21 -0
- package/docs/development/database-schema.dbml +9 -0
- package/locales/ar/models.json +248 -23
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +248 -23
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +248 -23
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +248 -23
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +248 -23
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +248 -23
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +248 -23
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +248 -23
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +248 -23
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +248 -23
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +248 -23
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +248 -23
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +248 -23
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +248 -23
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +248 -23
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +248 -23
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +248 -23
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +248 -23
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0031_add_agent_index.sql +9 -3
- package/packages/database/migrations/0032_improve_agents_field.sql +0 -4
- package/packages/database/migrations/0033_modern_mercury.sql +18 -0
- package/packages/database/migrations/meta/0033_snapshot.json +6594 -0
- package/packages/database/migrations/meta/_journal.json +7 -0
- package/packages/database/src/core/migrations.json +23 -6
- package/packages/database/src/schemas/message.ts +12 -11
- package/packages/database/src/schemas/rag.ts +10 -6
- package/packages/database/src/schemas/session.ts +7 -5
- package/packages/database/src/schemas/topic.ts +7 -3
- package/packages/model-bank/src/aiModels/siliconcloud.ts +45 -0
- package/packages/model-runtime/src/providers/siliconcloud/index.ts +19 -11
|
@@ -602,6 +602,33 @@
|
|
|
602
602
|
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
|
603
603
|
"description": "52 milyar parametreli (12 milyar aktif) çok dilli model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve gerçeklere dayalı üretim sunar."
|
|
604
604
|
},
|
|
605
|
+
"alibaba/qwen-3-14b": {
|
|
606
|
+
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
|
607
|
+
},
|
|
608
|
+
"alibaba/qwen-3-235b": {
|
|
609
|
+
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
|
610
|
+
},
|
|
611
|
+
"alibaba/qwen-3-30b": {
|
|
612
|
+
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
|
613
|
+
},
|
|
614
|
+
"alibaba/qwen-3-32b": {
|
|
615
|
+
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
|
616
|
+
},
|
|
617
|
+
"alibaba/qwen3-coder": {
|
|
618
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct, Qwen serisinin en yetenekli kodlama modeli olup, ajan kodlama, ajan tarayıcı kullanımı ve diğer temel kodlama görevlerinde belirgin performans sergiler ve Claude Sonnet ile karşılaştırılabilir sonuçlar elde eder."
|
|
619
|
+
},
|
|
620
|
+
"amazon/nova-lite": {
|
|
621
|
+
"description": "Çok düşük maliyetli çok modlu bir model olup, görüntü, video ve metin girişlerini çok hızlı işler."
|
|
622
|
+
},
|
|
623
|
+
"amazon/nova-micro": {
|
|
624
|
+
"description": "Sadece metin modeli olup, çok düşük maliyetle en düşük gecikmeli yanıtları sunar."
|
|
625
|
+
},
|
|
626
|
+
"amazon/nova-pro": {
|
|
627
|
+
"description": "Yüksek yetenekli çok modlu model olup, doğruluk, hız ve maliyetin en iyi kombinasyonunu sunar ve geniş görev yelpazesi için uygundur."
|
|
628
|
+
},
|
|
629
|
+
"amazon/titan-embed-text-v2": {
|
|
630
|
+
"description": "Amazon Titan Text Embeddings V2, hafif, verimli çok dilli gömme modeli olup, 1024, 512 ve 256 boyutlarını destekler."
|
|
631
|
+
},
|
|
605
632
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
|
606
633
|
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
|
|
607
634
|
},
|
|
@@ -627,25 +654,28 @@
|
|
|
627
654
|
"description": "Claude 2'nin güncellenmiş versiyonu, iki kat daha büyük bir bağlam penceresine sahiptir ve uzun belgeler ve RAG bağlamındaki güvenilirlik, yanılsama oranı ve kanıta dayalı doğrulukta iyileştirmeler sunar."
|
|
628
655
|
},
|
|
629
656
|
"anthropic/claude-3-haiku": {
|
|
630
|
-
"description": "Claude 3 Haiku, Anthropic'in en hızlı
|
|
657
|
+
"description": "Claude 3 Haiku, Anthropic'in şimdiye kadarki en hızlı modeli olup, genellikle uzun istemler içeren kurumsal iş yükleri için tasarlanmıştır. Haiku, çeyrek dosyaları, sözleşmeler veya hukuk davaları gibi büyük belge yığınlarını hızlıca analiz edebilir ve maliyeti performans seviyesindeki diğer modellere göre yarı yarıya düşüktür."
|
|
631
658
|
},
|
|
632
659
|
"anthropic/claude-3-opus": {
|
|
633
|
-
"description": "Claude 3 Opus, Anthropic'in
|
|
660
|
+
"description": "Claude 3 Opus, Anthropic'in en zeki modeli olup, yüksek karmaşıklıktaki görevlerde piyasa lideri performans sunar. Açık uçlu istemleri ve daha önce görülmemiş senaryoları üstün akıcılık ve insan benzeri anlayışla yönetebilir."
|
|
634
661
|
},
|
|
635
662
|
"anthropic/claude-3.5-haiku": {
|
|
636
|
-
"description": "Claude 3.5 Haiku,
|
|
663
|
+
"description": "Claude 3.5 Haiku, en hızlı modelimizin bir sonraki neslidir. Claude 3 Haiku ile benzer hızda olup, her beceri setinde geliştirilmiş ve birçok zeka kıyaslamasında önceki nesil en büyük modelimiz Claude 3 Opus'u geride bırakmıştır."
|
|
637
664
|
},
|
|
638
665
|
"anthropic/claude-3.5-sonnet": {
|
|
639
|
-
"description": "Claude 3.5 Sonnet,
|
|
666
|
+
"description": "Claude 3.5 Sonnet, zeka ve hız arasında ideal dengeyi sağlar—özellikle kurumsal iş yükleri için. Benzer ürünlere kıyasla daha düşük maliyetle güçlü performans sunar ve büyük ölçekli yapay zeka dağıtımlarında yüksek dayanıklılık için tasarlanmıştır."
|
|
640
667
|
},
|
|
641
668
|
"anthropic/claude-3.7-sonnet": {
|
|
642
|
-
"description": "Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en
|
|
669
|
+
"description": "Claude 3.7 Sonnet, ilk karma çıkarım modeli olup, Anthropic'in şimdiye kadarki en zeki modelidir. Kodlama, içerik oluşturma, veri analizi ve planlama görevlerinde en ileri performansı sunar ve selefi Claude 3.5 Sonnet'in yazılım mühendisliği ve bilgisayar kullanımı yetenekleri üzerine inşa edilmiştir."
|
|
643
670
|
},
|
|
644
671
|
"anthropic/claude-opus-4": {
|
|
645
|
-
"description": "Claude Opus 4, Anthropic
|
|
672
|
+
"description": "Claude Opus 4, Anthropic'in şimdiye kadarki en güçlü modeli ve dünyanın en iyi kodlama modeli olup, SWE-bench (%72.5) ve Terminal-bench (%43.2) testlerinde liderdir. Uzun süreli, binlerce adımlı görevlerde sürekli performans sağlar ve saatlerce kesintisiz çalışabilir—AI ajanlarının yeteneklerini önemli ölçüde genişletir."
|
|
673
|
+
},
|
|
674
|
+
"anthropic/claude-opus-4.1": {
|
|
675
|
+
"description": "Claude Opus 4.1, Opus 4'ün tak-çalıştır alternatifi olup, gerçek kodlama ve ajan görevlerinde üstün performans ve doğruluk sunar. Opus 4.1, en ileri kodlama performansını SWE-bench Verified'de %74.5'e yükseltir ve karmaşık çok adımlı problemleri daha yüksek titizlik ve detay odaklılıkla ele alır."
|
|
646
676
|
},
|
|
647
677
|
"anthropic/claude-sonnet-4": {
|
|
648
|
-
"description": "Claude Sonnet 4,
|
|
678
|
+
"description": "Claude Sonnet 4, Sonnet 3.7'nin sektör lideri yetenekleri üzerine önemli geliştirmeler yapmış olup, kodlama alanında mükemmel performans sergiler ve SWE-bench'te en ileri %72.7 skoruna ulaşır. Model, performans ve verimlilik arasında denge sağlar, hem dahili hem de harici kullanım durumları için uygundur ve geliştirilmiş kontrol edilebilirlik ile uygulama üzerinde daha fazla hakimiyet sunar."
|
|
649
679
|
},
|
|
650
680
|
"ascend-tribe/pangu-pro-moe": {
|
|
651
681
|
"description": "Pangu-Pro-MoE 72B-A16B, 72 milyar parametreli ve 16 milyar parametre aktive eden seyrek büyük bir dil modelidir. Bu model, grup tabanlı uzman karışımı (MoGE) mimarisine dayanır; uzman seçim aşamasında uzmanları gruplar halinde düzenler ve her grupta token başına eşit sayıda uzmanı aktive ederek uzman yük dengesini sağlar. Bu sayede Ascend platformunda modelin dağıtım verimliliği önemli ölçüde artırılmıştır."
|
|
@@ -797,6 +827,18 @@
|
|
|
797
827
|
"cohere/Cohere-command-r-plus": {
|
|
798
828
|
"description": "Command R+, işletme düzeyindeki iş yükleri için tasarlanmış, en gelişmiş RAG optimize modelidir."
|
|
799
829
|
},
|
|
830
|
+
"cohere/command-a": {
|
|
831
|
+
"description": "Command A, Cohere'in şimdiye kadarki en güçlü modeli olup, araç kullanımı, ajanlık, arama destekli üretim (RAG) ve çok dilli kullanım durumlarında üstün performans gösterir. Command A'nın bağlam uzunluğu 256K'dır, sadece iki GPU ile çalışabilir ve Command R+ 08-2024'e kıyasla işlem hacminde %150 artış sağlar."
|
|
832
|
+
},
|
|
833
|
+
"cohere/command-r": {
|
|
834
|
+
"description": "Command R, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiş büyük bir dil modelidir. \"Ölçeklenebilir\" model kategorisinde konumlanır ve yüksek performans ile güçlü doğruluk arasında denge kurarak şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
|
|
835
|
+
},
|
|
836
|
+
"cohere/command-r-plus": {
|
|
837
|
+
"description": "Command R+, Cohere'in en yeni büyük dil modeli olup, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiştir. Performansta olağanüstü olmayı hedefler ve şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
|
|
838
|
+
},
|
|
839
|
+
"cohere/embed-v4.0": {
|
|
840
|
+
"description": "Metin, görüntü veya karma içeriklerin sınıflandırılması veya gömme haline dönüştürülmesine olanak tanıyan model."
|
|
841
|
+
},
|
|
800
842
|
"command": {
|
|
801
843
|
"description": "Dil görevlerinde yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve temel üretim modelimize göre daha uzun bir bağlam uzunluğuna sahiptir."
|
|
802
844
|
},
|
|
@@ -975,7 +1017,7 @@
|
|
|
975
1017
|
"description": "DeepSeek-V3.1, 128K uzun bağlam ve verimli mod geçişini destekleyen büyük hibrit çıkarım modelidir; araç çağrıları, kod üretimi ve karmaşık çıkarım görevlerinde üstün performans ve hız sağlar."
|
|
976
1018
|
},
|
|
977
1019
|
"deepseek/deepseek-r1": {
|
|
978
|
-
"description": "DeepSeek-R1,
|
|
1020
|
+
"description": "DeepSeek R1 modeli küçük bir sürüm güncellemesi aldı, mevcut sürüm DeepSeek-R1-0528'dir. Son güncellemede, DeepSeek R1 artırılmış hesaplama kaynakları ve eğitim sonrası algoritma optimizasyon mekanizmaları kullanarak çıkarım derinliği ve yeteneğini önemli ölçüde artırdı. Model, matematik, programlama ve genel mantık gibi birçok kıyaslama testinde üstün performans gösterir ve genel performansı artık O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
|
|
979
1021
|
},
|
|
980
1022
|
"deepseek/deepseek-r1-0528": {
|
|
981
1023
|
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
|
|
@@ -984,7 +1026,7 @@
|
|
|
984
1026
|
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
|
|
985
1027
|
},
|
|
986
1028
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
987
|
-
"description": "DeepSeek
|
|
1029
|
+
"description": "DeepSeek-R1-Distill-Llama-70B, 70B Llama modelinin damıtılmış ve daha verimli bir varyantıdır. Metin üretimi görevlerinde güçlü performansını korur, hesaplama maliyetini azaltarak dağıtım ve araştırmayı kolaylaştırır. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
|
988
1030
|
},
|
|
989
1031
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
990
1032
|
"description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı bir damıtılmış büyük dil modelidir ve DeepSeek R1'in çıktısını kullanarak eğitilmiştir."
|
|
@@ -1002,7 +1044,10 @@
|
|
|
1002
1044
|
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
|
1003
1045
|
},
|
|
1004
1046
|
"deepseek/deepseek-v3": {
|
|
1005
|
-
"description": "
|
|
1047
|
+
"description": "Gelişmiş çıkarım yeteneklerine sahip hızlı, genel amaçlı büyük dil modeli."
|
|
1048
|
+
},
|
|
1049
|
+
"deepseek/deepseek-v3.1-base": {
|
|
1050
|
+
"description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir versiyonudur."
|
|
1006
1051
|
},
|
|
1007
1052
|
"deepseek/deepseek-v3/community": {
|
|
1008
1053
|
"description": "DeepSeek-V3, çıkarım hızında önceki modellere göre önemli bir atılım gerçekleştirmiştir. Açık kaynak modeller arasında birinci sırada yer almakta ve dünya çapındaki en gelişmiş kapalı kaynak modellerle rekabet edebilmektedir. DeepSeek-V3, DeepSeek-V2'de kapsamlı bir şekilde doğrulanan çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarilerini kullanmaktadır. Ayrıca, DeepSeek-V3, yük dengeleme için yardımcı kayıpsız bir strateji geliştirmiştir ve daha güçlü bir performans elde etmek için çok etiketli tahmin eğitim hedefleri belirlemiştir."
|
|
@@ -1430,18 +1475,27 @@
|
|
|
1430
1475
|
"glm-zero-preview": {
|
|
1431
1476
|
"description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
|
|
1432
1477
|
},
|
|
1478
|
+
"google/gemini-2.0-flash": {
|
|
1479
|
+
"description": "Gemini 2.0 Flash, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
|
|
1480
|
+
},
|
|
1433
1481
|
"google/gemini-2.0-flash-001": {
|
|
1434
1482
|
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
|
1435
1483
|
},
|
|
1436
1484
|
"google/gemini-2.0-flash-exp:free": {
|
|
1437
1485
|
"description": "Gemini 2.0 Flash Deneysel, Google'ın en yeni deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
|
|
1438
1486
|
},
|
|
1487
|
+
"google/gemini-2.0-flash-lite": {
|
|
1488
|
+
"description": "Gemini 2.0 Flash Lite, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
|
|
1489
|
+
},
|
|
1439
1490
|
"google/gemini-2.5-flash": {
|
|
1440
|
-
"description": "Gemini 2.5 Flash,
|
|
1491
|
+
"description": "Gemini 2.5 Flash, kapsamlı yetenekler sunan düşünme modelidir. Fiyat ve performans arasında denge kurmayı amaçlar, çok modlu ve 1 milyon token bağlam penceresini destekler."
|
|
1441
1492
|
},
|
|
1442
1493
|
"google/gemini-2.5-flash-image-preview": {
|
|
1443
1494
|
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
|
|
1444
1495
|
},
|
|
1496
|
+
"google/gemini-2.5-flash-lite": {
|
|
1497
|
+
"description": "Gemini 2.5 Flash-Lite, dengeli, düşük gecikmeli bir model olup, yapılandırılabilir düşünme bütçesi ve araç bağlantısı (örneğin Google Arama temelli ve kod yürütme) sunar. Çok modlu girişi destekler ve 1 milyon token bağlam penceresi sağlar."
|
|
1498
|
+
},
|
|
1445
1499
|
"google/gemini-2.5-flash-preview": {
|
|
1446
1500
|
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1447
1501
|
},
|
|
@@ -1449,11 +1503,14 @@
|
|
|
1449
1503
|
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1450
1504
|
},
|
|
1451
1505
|
"google/gemini-2.5-pro": {
|
|
1452
|
-
"description": "Gemini 2.5 Pro,
|
|
1506
|
+
"description": "Gemini 2.5 Pro, karmaşık problemleri çözebilen en gelişmiş çıkarım Gemini modelimizdir. 2 milyon token bağlam penceresine sahiptir ve metin, görüntü, ses, video ve PDF belgeleri dahil çok modlu girişleri destekler."
|
|
1453
1507
|
},
|
|
1454
1508
|
"google/gemini-2.5-pro-preview": {
|
|
1455
1509
|
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları çözme yeteneğine sahiptir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
|
|
1456
1510
|
},
|
|
1511
|
+
"google/gemini-embedding-001": {
|
|
1512
|
+
"description": "İngilizce, çok dilli ve kod görevlerinde üstün performans sunan en gelişmiş gömme modeli."
|
|
1513
|
+
},
|
|
1457
1514
|
"google/gemini-flash-1.5": {
|
|
1458
1515
|
"description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur."
|
|
1459
1516
|
},
|
|
@@ -1490,6 +1547,12 @@
|
|
|
1490
1547
|
"google/gemma-3-27b-it": {
|
|
1491
1548
|
"description": "Gemma 3 27B, Google'ın verimlilik ve performans açısından yeni standartlar belirleyen açık kaynaklı bir dil modelidir."
|
|
1492
1549
|
},
|
|
1550
|
+
"google/text-embedding-005": {
|
|
1551
|
+
"description": "Kod ve İngilizce dil görevleri için optimize edilmiş İngilizce odaklı metin gömme modeli."
|
|
1552
|
+
},
|
|
1553
|
+
"google/text-multilingual-embedding-002": {
|
|
1554
|
+
"description": "Çoklu dil görevleri için optimize edilmiş çok dilli metin gömme modeli, birçok dili destekler."
|
|
1555
|
+
},
|
|
1493
1556
|
"gpt-3.5-turbo": {
|
|
1494
1557
|
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
|
|
1495
1558
|
},
|
|
@@ -1781,6 +1844,9 @@
|
|
|
1781
1844
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
|
1782
1845
|
"description": "Imagen 4. nesil metinden görüntüye model serisi Ultra versiyonu"
|
|
1783
1846
|
},
|
|
1847
|
+
"inception/mercury-coder-small": {
|
|
1848
|
+
"description": "Mercury Coder Small, kod üretimi, hata ayıklama ve yeniden yapılandırma görevleri için ideal olup, minimum gecikme sunar."
|
|
1849
|
+
},
|
|
1784
1850
|
"inclusionAI/Ling-mini-2.0": {
|
|
1785
1851
|
"description": "Ling-mini-2.0, MoE mimarisi temelinde geliştirilmiş, küçük boyutlu yüksek performanslı büyük bir dil modelidir. Toplamda 16 milyar parametreye sahiptir, ancak her token için yalnızca 1.4 milyar (embedding dışı 789M) aktif hale gelir, bu da son derece yüksek üretim hızını mümkün kılar. Verimli MoE tasarımı ve büyük ölçekli yüksek kaliteli eğitim verileri sayesinde, aktif parametre sayısı sadece 1.4 milyar olmasına rağmen, Ling-mini-2.0, alt görevlerde 10 milyar altı yoğun LLM'ler ve daha büyük ölçekli MoE modelleriyle rekabet edebilecek üst düzey performans sergiler."
|
|
1786
1852
|
},
|
|
@@ -2057,30 +2123,63 @@
|
|
|
2057
2123
|
"meta/Meta-Llama-3.1-8B-Instruct": {
|
|
2058
2124
|
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok açık ve kapalı sohbet modeli arasında yaygın endüstri kıyaslamalarında üstün performans sergiler."
|
|
2059
2125
|
},
|
|
2126
|
+
"meta/llama-3-70b": {
|
|
2127
|
+
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 70 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
|
2128
|
+
},
|
|
2129
|
+
"meta/llama-3-8b": {
|
|
2130
|
+
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 8 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
|
2131
|
+
},
|
|
2060
2132
|
"meta/llama-3.1-405b-instruct": {
|
|
2061
2133
|
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
|
|
2062
2134
|
},
|
|
2135
|
+
"meta/llama-3.1-70b": {
|
|
2136
|
+
"description": "Meta Llama 3 70B Instruct'in güncellenmiş versiyonu olup, genişletilmiş 128K bağlam uzunluğu, çok dillilik ve geliştirilmiş çıkarım yetenekleri içerir."
|
|
2137
|
+
},
|
|
2063
2138
|
"meta/llama-3.1-70b-instruct": {
|
|
2064
2139
|
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
|
|
2065
2140
|
},
|
|
2141
|
+
"meta/llama-3.1-8b": {
|
|
2142
|
+
"description": "Llama 3.1 8B, 128K bağlam penceresini destekler ve gerçek zamanlı diyalog arayüzleri ile veri analizi için ideal bir seçimdir; daha büyük modellere kıyasla önemli maliyet tasarrufu sağlar. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
|
2143
|
+
},
|
|
2066
2144
|
"meta/llama-3.1-8b-instruct": {
|
|
2067
2145
|
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
|
2068
2146
|
},
|
|
2147
|
+
"meta/llama-3.2-11b": {
|
|
2148
|
+
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
|
|
2149
|
+
},
|
|
2069
2150
|
"meta/llama-3.2-11b-vision-instruct": {
|
|
2070
2151
|
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
|
2071
2152
|
},
|
|
2153
|
+
"meta/llama-3.2-1b": {
|
|
2154
|
+
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını destekler."
|
|
2155
|
+
},
|
|
2072
2156
|
"meta/llama-3.2-1b-instruct": {
|
|
2073
2157
|
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
|
2074
2158
|
},
|
|
2159
|
+
"meta/llama-3.2-3b": {
|
|
2160
|
+
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını desteklemek için özenle ayarlanmıştır."
|
|
2161
|
+
},
|
|
2075
2162
|
"meta/llama-3.2-3b-instruct": {
|
|
2076
2163
|
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
|
2077
2164
|
},
|
|
2165
|
+
"meta/llama-3.2-90b": {
|
|
2166
|
+
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
|
|
2167
|
+
},
|
|
2078
2168
|
"meta/llama-3.2-90b-vision-instruct": {
|
|
2079
2169
|
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
|
2080
2170
|
},
|
|
2171
|
+
"meta/llama-3.3-70b": {
|
|
2172
|
+
"description": "Performans ve verimliliğin mükemmel birleşimi. Model, yüksek performanslı diyalog yapay zekasını destekler, içerik oluşturma, kurumsal uygulamalar ve araştırma için tasarlanmıştır ve metin özetleme, sınıflandırma, duygu analizi ve kod üretimi dahil gelişmiş dil anlama yetenekleri sunar."
|
|
2173
|
+
},
|
|
2081
2174
|
"meta/llama-3.3-70b-instruct": {
|
|
2082
2175
|
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
|
|
2083
2176
|
},
|
|
2177
|
+
"meta/llama-4-maverick": {
|
|
2178
|
+
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Maverick, 17 milyar parametreli ve 128 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
|
|
2179
|
+
},
|
|
2180
|
+
"meta/llama-4-scout": {
|
|
2181
|
+
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Scout, 17 milyar parametreli ve 16 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
|
|
2182
|
+
},
|
|
2084
2183
|
"microsoft/Phi-3-medium-128k-instruct": {
|
|
2085
2184
|
"description": "Aynı Phi-3-medium modeli, ancak daha büyük bağlam boyutuna sahip olup RAG veya az sayıda istem için uygundur."
|
|
2086
2185
|
},
|
|
@@ -2156,6 +2255,48 @@
|
|
|
2156
2255
|
"mistral-small-latest": {
|
|
2157
2256
|
"description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir."
|
|
2158
2257
|
},
|
|
2258
|
+
"mistral/codestral": {
|
|
2259
|
+
"description": "Mistral Codestral 25.01, düşük gecikme ve yüksek frekanslı kullanım durumları için optimize edilmiş en gelişmiş kodlama modelidir. 80'den fazla programlama dilinde uzman olup, orta doldurma (FIM), kod düzeltme ve test üretimi gibi görevlerde üstün performans gösterir."
|
|
2260
|
+
},
|
|
2261
|
+
"mistral/codestral-embed": {
|
|
2262
|
+
"description": "Kod veritabanları ve depolarına gömülebilen, kodlama asistanlarını destekleyen kod gömme modeli."
|
|
2263
|
+
},
|
|
2264
|
+
"mistral/devstral-small": {
|
|
2265
|
+
"description": "Devstral, yazılım mühendisliği görevleri için bir ajan büyük dil modeli olup, yazılım mühendisliği ajanları için mükemmel bir seçimdir."
|
|
2266
|
+
},
|
|
2267
|
+
"mistral/magistral-medium": {
|
|
2268
|
+
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
|
|
2269
|
+
},
|
|
2270
|
+
"mistral/magistral-small": {
|
|
2271
|
+
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
|
|
2272
|
+
},
|
|
2273
|
+
"mistral/ministral-3b": {
|
|
2274
|
+
"description": "Akıllı asistanlar ve yerel analiz gibi cihaz üzeri görevler için kompakt, verimli model olup, düşük gecikmeli performans sunar."
|
|
2275
|
+
},
|
|
2276
|
+
"mistral/ministral-8b": {
|
|
2277
|
+
"description": "Daha güçlü, daha hızlı ve bellek açısından verimli çıkarım sunan model olup, karmaşık iş akışları ve zorlu uç uygulamalar için idealdir."
|
|
2278
|
+
},
|
|
2279
|
+
"mistral/mistral-embed": {
|
|
2280
|
+
"description": "Anlamsal arama, benzerlik, kümeleme ve RAG iş akışları için genel amaçlı metin gömme modeli."
|
|
2281
|
+
},
|
|
2282
|
+
"mistral/mistral-large": {
|
|
2283
|
+
"description": "Mistral Large, büyük çıkarım yetenekleri veya yüksek uzmanlık gerektiren karmaşık görevler için ideal seçimdir—örneğin sentez metin üretimi, kod üretimi, RAG veya ajanlık."
|
|
2284
|
+
},
|
|
2285
|
+
"mistral/mistral-saba-24b": {
|
|
2286
|
+
"description": "Mistral Saba 24B, Mistral.ai tarafından geliştirilen 24 milyar parametreli açık kaynak modelidir. Saba, Arapça, Farsça, Urduca, İbranice ve Hint dillerinde üstün performans göstermek üzere özel olarak eğitilmiş bir modeldir. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
|
2287
|
+
},
|
|
2288
|
+
"mistral/mistral-small": {
|
|
2289
|
+
"description": "Mistral Small, sınıflandırma, müşteri desteği veya metin üretimi gibi toplu yapılabilen basit görevler için ideal seçimdir. Uygun fiyat noktasında mükemmel performans sunar."
|
|
2290
|
+
},
|
|
2291
|
+
"mistral/mixtral-8x22b-instruct": {
|
|
2292
|
+
"description": "8x22b Instruct modeli. 8x22b, Mistral tarafından hizmet verilen karma uzman açık kaynak modelidir."
|
|
2293
|
+
},
|
|
2294
|
+
"mistral/pixtral-12b": {
|
|
2295
|
+
"description": "Görüntü anlama yeteneğine sahip 12 milyar parametreli model ve metin."
|
|
2296
|
+
},
|
|
2297
|
+
"mistral/pixtral-large": {
|
|
2298
|
+
"description": "Pixtral Large, çok modlu ailemizdeki ikinci model olup, ileri düzey görüntü anlama yetenekleri sergiler. Özellikle belge, grafik ve doğal görüntüleri anlayabilir ve Mistral Large 2'nin lider metin anlama yeteneklerini korur."
|
|
2299
|
+
},
|
|
2159
2300
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
|
2160
2301
|
"description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur."
|
|
2161
2302
|
},
|
|
@@ -2222,12 +2363,21 @@
|
|
|
2222
2363
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2223
2364
|
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
|
|
2224
2365
|
},
|
|
2366
|
+
"moonshotai/kimi-k2": {
|
|
2367
|
+
"description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
|
|
2368
|
+
},
|
|
2225
2369
|
"moonshotai/kimi-k2-0905": {
|
|
2226
2370
|
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2227
2371
|
},
|
|
2228
2372
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2229
2373
|
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2230
2374
|
},
|
|
2375
|
+
"morph/morph-v3-fast": {
|
|
2376
|
+
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 4500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
|
|
2377
|
+
},
|
|
2378
|
+
"morph/morph-v3-large": {
|
|
2379
|
+
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 2500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
|
|
2380
|
+
},
|
|
2231
2381
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2232
2382
|
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
|
|
2233
2383
|
},
|
|
@@ -2294,29 +2444,47 @@
|
|
|
2294
2444
|
"open-mixtral-8x7b": {
|
|
2295
2445
|
"description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur."
|
|
2296
2446
|
},
|
|
2447
|
+
"openai/gpt-3.5-turbo": {
|
|
2448
|
+
"description": "OpenAI'nin GPT-3.5 serisindeki en yetenekli ve maliyet etkin modeli olup, sohbet amaçlı optimize edilmiştir ancak geleneksel tamamlama görevlerinde de iyi performans gösterir."
|
|
2449
|
+
},
|
|
2450
|
+
"openai/gpt-3.5-turbo-instruct": {
|
|
2451
|
+
"description": "GPT-3 dönemindeki modellere benzer yetenekler sunar. Sohbet tamamlama uç noktası yerine geleneksel tamamlama uç noktası ile uyumludur."
|
|
2452
|
+
},
|
|
2453
|
+
"openai/gpt-4-turbo": {
|
|
2454
|
+
"description": "OpenAI'den gpt-4-turbo, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. Bilgi kesim tarihi Nisan 2023'tür ve 128.000 token bağlam penceresine sahiptir."
|
|
2455
|
+
},
|
|
2297
2456
|
"openai/gpt-4.1": {
|
|
2298
|
-
"description": "GPT
|
|
2457
|
+
"description": "GPT 4.1, OpenAI'nin amiral gemisi modeli olup, karmaşık görevler için uygundur. Alanlar arası problem çözmede mükemmeldir."
|
|
2299
2458
|
},
|
|
2300
2459
|
"openai/gpt-4.1-mini": {
|
|
2301
|
-
"description": "GPT
|
|
2460
|
+
"description": "GPT 4.1 mini, zeka, hız ve maliyet arasında denge kurar ve birçok kullanım durumu için çekici bir modeldir."
|
|
2302
2461
|
},
|
|
2303
2462
|
"openai/gpt-4.1-nano": {
|
|
2304
|
-
"description": "GPT-4.1 nano, en hızlı ve en maliyet etkin
|
|
2463
|
+
"description": "GPT-4.1 nano, GPT 4.1 modelleri arasında en hızlı ve en maliyet etkin olanıdır."
|
|
2305
2464
|
},
|
|
2306
2465
|
"openai/gpt-4o": {
|
|
2307
|
-
"description": "
|
|
2466
|
+
"description": "OpenAI'den GPT-4o, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. GPT-4 Turbo performansını daha hızlı ve daha uygun maliyetli API ile eşler."
|
|
2308
2467
|
},
|
|
2309
2468
|
"openai/gpt-4o-mini": {
|
|
2310
|
-
"description": "
|
|
2469
|
+
"description": "OpenAI'nin en gelişmiş ve maliyet etkin küçük modeli olan GPT-4o mini, çok modludur (metin veya görüntü girişi alır ve metin çıktısı verir) ve gpt-3.5-turbo'dan daha zeki ancak aynı hızdadır."
|
|
2470
|
+
},
|
|
2471
|
+
"openai/gpt-5": {
|
|
2472
|
+
"description": "GPT-5, OpenAI'nin amiral gemisi dil modeli olup, karmaşık çıkarım, geniş gerçek dünya bilgisi, kod yoğun ve çok adımlı ajan görevlerinde üstün performans gösterir."
|
|
2473
|
+
},
|
|
2474
|
+
"openai/gpt-5-mini": {
|
|
2475
|
+
"description": "GPT-5 mini, maliyet optimize edilmiş bir model olup, çıkarım/sohbet görevlerinde üstün performans sunar. Hız, maliyet ve yetenek arasında en iyi dengeyi sağlar."
|
|
2476
|
+
},
|
|
2477
|
+
"openai/gpt-5-nano": {
|
|
2478
|
+
"description": "GPT-5 nano, yüksek işlem hacmine sahip model olup, basit talimat veya sınıflandırma görevlerinde üstün performans gösterir."
|
|
2311
2479
|
},
|
|
2312
2480
|
"openai/gpt-oss-120b": {
|
|
2313
|
-
"description": "
|
|
2481
|
+
"description": "Son derece yetenekli genel amaçlı büyük dil modeli olup, güçlü ve kontrol edilebilir çıkarım yeteneklerine sahiptir."
|
|
2314
2482
|
},
|
|
2315
2483
|
"openai/gpt-oss-20b": {
|
|
2316
|
-
"description": "
|
|
2484
|
+
"description": "Kompakt, açık kaynak ağırlıklı dil modeli olup, düşük gecikme ve kaynak kısıtlı ortamlar için optimize edilmiştir; yerel ve uç dağıtımları destekler."
|
|
2317
2485
|
},
|
|
2318
2486
|
"openai/o1": {
|
|
2319
|
-
"description": "
|
|
2487
|
+
"description": "OpenAI'nin o1 modeli, derin düşünme gerektiren karmaşık problemler için amiral gemisi çıkarım modelidir. Karmaşık çok adımlı görevlerde güçlü çıkarım yeteneği ve yüksek doğruluk sunar."
|
|
2320
2488
|
},
|
|
2321
2489
|
"openai/o1-mini": {
|
|
2322
2490
|
"description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
|
@@ -2325,23 +2493,44 @@
|
|
|
2325
2493
|
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
|
2326
2494
|
},
|
|
2327
2495
|
"openai/o3": {
|
|
2328
|
-
"description": "o3,
|
|
2496
|
+
"description": "OpenAI'nin o3 modeli, kodlama, matematik, bilim ve görsel algılamada yeni en ileri seviyeler belirleyen en güçlü çıkarım modelidir. Çok yönlü analiz gerektiren karmaşık sorgularda uzmandır ve görüntü, grafik ve diyagram analizinde özel avantajlara sahiptir."
|
|
2329
2497
|
},
|
|
2330
2498
|
"openai/o3-mini": {
|
|
2331
|
-
"description": "o3-mini, o1-mini ile aynı maliyet ve gecikme
|
|
2499
|
+
"description": "o3-mini, OpenAI'nin en yeni küçük çıkarım modeli olup, o1-mini ile aynı maliyet ve gecikme hedeflerinde yüksek zeka sunar."
|
|
2332
2500
|
},
|
|
2333
2501
|
"openai/o3-mini-high": {
|
|
2334
2502
|
"description": "o3-mini yüksek akıl yürütme seviyesi, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
|
|
2335
2503
|
},
|
|
2336
2504
|
"openai/o4-mini": {
|
|
2337
|
-
"description": "o4-mini, hızlı ve
|
|
2505
|
+
"description": "OpenAI'nin o4-mini modeli, hızlı ve maliyet etkin çıkarım sunar ve boyutuna göre özellikle matematik (AIME kıyaslamasında en iyi performans), kodlama ve görsel görevlerde üstün performans gösterir."
|
|
2338
2506
|
},
|
|
2339
2507
|
"openai/o4-mini-high": {
|
|
2340
2508
|
"description": "o4-mini yüksek çıkarım seviyesinde, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
|
2341
2509
|
},
|
|
2510
|
+
"openai/text-embedding-3-large": {
|
|
2511
|
+
"description": "OpenAI'nin en yetenekli gömme modeli olup, İngilizce ve İngilizce dışı görevlerde kullanılır."
|
|
2512
|
+
},
|
|
2513
|
+
"openai/text-embedding-3-small": {
|
|
2514
|
+
"description": "OpenAI'nin geliştirilmiş, daha yüksek performanslı ada gömme modeli versiyonu."
|
|
2515
|
+
},
|
|
2516
|
+
"openai/text-embedding-ada-002": {
|
|
2517
|
+
"description": "OpenAI'nin klasik metin gömme modeli."
|
|
2518
|
+
},
|
|
2342
2519
|
"openrouter/auto": {
|
|
2343
2520
|
"description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir."
|
|
2344
2521
|
},
|
|
2522
|
+
"perplexity/sonar": {
|
|
2523
|
+
"description": "Perplexity'nin hafif ürünü olup, arama temelli yeteneklere sahiptir ve Sonar Pro'dan daha hızlı ve daha ucuzdur."
|
|
2524
|
+
},
|
|
2525
|
+
"perplexity/sonar-pro": {
|
|
2526
|
+
"description": "Perplexity'nin amiral gemisi ürünü olup, arama temelli yeteneklere sahiptir ve gelişmiş sorgular ile takip işlemlerini destekler."
|
|
2527
|
+
},
|
|
2528
|
+
"perplexity/sonar-reasoning": {
|
|
2529
|
+
"description": "Çıkarıma odaklanan model olup, yanıtlarında düşünce zinciri (CoT) sunar ve arama temelli detaylı açıklamalar sağlar."
|
|
2530
|
+
},
|
|
2531
|
+
"perplexity/sonar-reasoning-pro": {
|
|
2532
|
+
"description": "Gelişmiş çıkarım odaklı model olup, yanıtlarında düşünce zinciri (CoT) sunar, geliştirilmiş arama yetenekleri ve her istek için birden fazla arama sorgusu ile kapsamlı açıklamalar sağlar."
|
|
2533
|
+
},
|
|
2345
2534
|
"phi3": {
|
|
2346
2535
|
"description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
|
|
2347
2536
|
},
|
|
@@ -2804,6 +2993,12 @@
|
|
|
2804
2993
|
"v0-1.5-md": {
|
|
2805
2994
|
"description": "v0-1.5-md modeli, günlük görevler ve kullanıcı arayüzü (UI) oluşturma için uygundur"
|
|
2806
2995
|
},
|
|
2996
|
+
"vercel/v0-1.0-md": {
|
|
2997
|
+
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
|
|
2998
|
+
},
|
|
2999
|
+
"vercel/v0-1.5-md": {
|
|
3000
|
+
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
|
|
3001
|
+
},
|
|
2807
3002
|
"wan2.2-t2i-flash": {
|
|
2808
3003
|
"description": "Wanxiang 2.2 hızlı sürüm, mevcut en yeni modeldir. Yaratıcılık, kararlılık ve gerçekçilikte kapsamlı yükseltmeler sunar; hızlı üretim hızı ve yüksek maliyet performansı sağlar."
|
|
2809
3004
|
},
|
|
@@ -2834,6 +3029,27 @@
|
|
|
2834
3029
|
"x1": {
|
|
2835
3030
|
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
|
|
2836
3031
|
},
|
|
3032
|
+
"xai/grok-2": {
|
|
3033
|
+
"description": "Grok 2, en ileri çıkarım yeteneklerine sahip öncü bir dil modelidir. Sohbet, kodlama ve çıkarımda gelişmiş yetenekler sunar ve LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4-Turbo'nun önündedir."
|
|
3034
|
+
},
|
|
3035
|
+
"xai/grok-2-vision": {
|
|
3036
|
+
"description": "Grok 2 görsel modeli, görsel tabanlı görevlerde üstün performans sunar; görsel matematik çıkarımı (MathVista) ve belge tabanlı soru-cevap (DocVQA) alanlarında en ileri performansı sağlar. Belgeler, grafikler, diyagramlar, ekran görüntüleri ve fotoğraflar dahil çeşitli görsel bilgileri işleyebilir."
|
|
3037
|
+
},
|
|
3038
|
+
"xai/grok-3": {
|
|
3039
|
+
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir."
|
|
3040
|
+
},
|
|
3041
|
+
"xai/grok-3-fast": {
|
|
3042
|
+
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
|
|
3043
|
+
},
|
|
3044
|
+
"xai/grok-3-mini": {
|
|
3045
|
+
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır."
|
|
3046
|
+
},
|
|
3047
|
+
"xai/grok-3-mini-fast": {
|
|
3048
|
+
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
|
|
3049
|
+
},
|
|
3050
|
+
"xai/grok-4": {
|
|
3051
|
+
"description": "xAI'nin en yeni ve en büyük amiral gemisi modeli olup, doğal dil, matematik ve çıkarımda eşsiz performans sunar—mükemmel çok yönlü oyuncu."
|
|
3052
|
+
},
|
|
2837
3053
|
"yi-1.5-34b-chat": {
|
|
2838
3054
|
"description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
|
|
2839
3055
|
},
|
|
@@ -2881,5 +3097,14 @@
|
|
|
2881
3097
|
},
|
|
2882
3098
|
"zai-org/GLM-4.5V": {
|
|
2883
3099
|
"description": "GLM-4.5V, Zhipu AI(智谱 AI) tarafından yayımlanan en son nesil görsel-dil modeli (VLM)'dir. Bu model, 106 milyar toplam parametre ve 12 milyar aktivasyon parametresine sahip amiral gemisi metin modeli GLM-4.5-Air üzerine inşa edilmiş olup, karma uzman (Mixture-of-Experts, MoE) mimarisini kullanır ve daha düşük çıkarım maliyetiyle üstün performans sağlamayı hedefler. GLM-4.5V teknik olarak GLM-4.1V-Thinking hattını sürdürürken üç boyutlu döndürmeli pozisyon kodlaması (3D-RoPE) gibi yenilikleri de getirerek üç boyutlu uzaysal ilişkilerin algılanması ve çıkarımı yeteneğini önemli ölçüde güçlendirir. Ön eğitme, denetimli ince ayar ve pekiştirmeli öğrenme aşamalarında yapılan optimizasyonlar sayesinde model; görüntü, video ve uzun belgeler gibi çeşitli görsel içerikleri işleyebilir ve 41 açık çok modlu kıyaslama testinde aynı seviyedeki açık kaynak modeller arasında en üst düzey performansa ulaşmıştır. Ayrıca modele eklenen \"düşünme modu\" anahtarı, kullanıcıların hızlı yanıt ile derin çıkarım arasında esnekçe tercih yaparak verim ile etki arasında denge kurmasına olanak tanır."
|
|
3100
|
+
},
|
|
3101
|
+
"zai/glm-4.5": {
|
|
3102
|
+
"description": "GLM-4.5 serisi modeller, ajanlar için özel olarak tasarlanmış temel modellerdir. Amiral gemisi GLM-4.5, 355 milyar toplam parametre (32 milyar aktif) içerir ve karma çıkarım, kodlama ve ajan yeteneklerini birleştirerek karmaşık uygulama ihtiyaçlarını karşılar. Karma çıkarım sistemi olarak çift modlu çalışma sunar."
|
|
3103
|
+
},
|
|
3104
|
+
"zai/glm-4.5-air": {
|
|
3105
|
+
"description": "GLM-4.5 ve GLM-4.5-Air, ajan uygulamalarına yönelik temel modeller olarak tasarlanmış en yeni amiral gemisi modellerimizdir. Her ikisi de karma uzman (MoE) mimarisinden yararlanır. GLM-4.5 toplamda 355 milyar parametreye ve her ileri geçişte 32 milyar aktif parametreye sahiptir; GLM-4.5-Air ise daha sade bir tasarıma sahip olup toplamda 106 milyar parametre ve 12 milyar aktif parametre içerir."
|
|
3106
|
+
},
|
|
3107
|
+
"zai/glm-4.5v": {
|
|
3108
|
+
"description": "GLM-4.5V, GLM-4.5-Air temel modeli üzerine inşa edilmiştir, GLM-4.1V-Thinking'in doğrulanmış teknolojisini devralır ve güçlü 106 milyar parametreli MoE mimarisi ile etkili ölçeklenebilirlik sağlar."
|
|
2884
3109
|
}
|
|
2885
3110
|
}
|
|
@@ -161,6 +161,9 @@
|
|
|
161
161
|
"v0": {
|
|
162
162
|
"description": "v0, eşli programlama asistanıdır; sadece doğal dilde fikirlerinizi tanımlamanız yeterlidir, o da projeniz için kod ve kullanıcı arayüzü (UI) oluşturur"
|
|
163
163
|
},
|
|
164
|
+
"vercelaigateway": {
|
|
165
|
+
"description": "Vercel AI Gateway, 100'den fazla modele erişim sağlamak için birleşik bir API sunar; tek bir uç nokta üzerinden OpenAI, Anthropic, Google ve diğer sağlayıcıların modellerini kullanmanıza olanak tanır. Bütçe ayarları, kullanım izleme, istek yük dengeleme ve hata toleransı desteklenmektedir."
|
|
166
|
+
},
|
|
164
167
|
"vertexai": {
|
|
165
168
|
"description": "Google'un Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel amaçlı AI modelleridir. Çok modlu tasarım için özel olarak oluşturulmuş olup, metin, kod, görüntü, ses ve video gibi içeriklerin kesintisiz anlaşılması ve işlenmesini destekler. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, AI modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırır."
|
|
166
169
|
},
|