@lobehub/chat 1.129.1 → 1.129.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +248 -23
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +248 -23
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +248 -23
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +248 -23
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +248 -23
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +248 -23
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +248 -23
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +248 -23
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +248 -23
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +248 -23
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +248 -23
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +248 -23
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +248 -23
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +248 -23
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +248 -23
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +248 -23
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +248 -23
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +248 -23
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0031_add_agent_index.sql +6 -6
- package/packages/database/src/core/migrations.json +3 -3
- package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
- package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
- package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
- package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
|
@@ -602,6 +602,33 @@
|
|
|
602
602
|
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
|
603
603
|
"description": "Een meertalig model met 52 miljard parameters (waarvan 12 miljard actief), biedt een contextvenster van 256K tokens, functieaanroepen, gestructureerde output en feitelijke generatie."
|
|
604
604
|
},
|
|
605
|
+
"alibaba/qwen-3-14b": {
|
|
606
|
+
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
|
|
607
|
+
},
|
|
608
|
+
"alibaba/qwen-3-235b": {
|
|
609
|
+
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
|
|
610
|
+
},
|
|
611
|
+
"alibaba/qwen-3-30b": {
|
|
612
|
+
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
|
|
613
|
+
},
|
|
614
|
+
"alibaba/qwen-3-32b": {
|
|
615
|
+
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
|
|
616
|
+
},
|
|
617
|
+
"alibaba/qwen3-coder": {
|
|
618
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct is het meest agentgerichte codemodel van Qwen, met opmerkelijke prestaties in agentcodering, agentbrowsergebruik en andere fundamentele codeertaken, vergelijkbaar met de resultaten van Claude Sonnet."
|
|
619
|
+
},
|
|
620
|
+
"amazon/nova-lite": {
|
|
621
|
+
"description": "Een zeer kostenefficiënt multimodaal model dat extreem snel afbeeldingen, video en tekst verwerkt."
|
|
622
|
+
},
|
|
623
|
+
"amazon/nova-micro": {
|
|
624
|
+
"description": "Een puur tekstmodel dat tegen zeer lage kosten de laagste latentie respons biedt."
|
|
625
|
+
},
|
|
626
|
+
"amazon/nova-pro": {
|
|
627
|
+
"description": "Een zeer capabel multimodaal model met de beste combinatie van nauwkeurigheid, snelheid en kosten, geschikt voor een breed scala aan taken."
|
|
628
|
+
},
|
|
629
|
+
"amazon/titan-embed-text-v2": {
|
|
630
|
+
"description": "Amazon Titan Text Embeddings V2 is een lichtgewicht, efficiënt meertalig embed-model dat 1024, 512 en 256 dimensies ondersteunt."
|
|
631
|
+
},
|
|
605
632
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
|
606
633
|
"description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
|
|
607
634
|
},
|
|
@@ -627,25 +654,28 @@
|
|
|
627
654
|
"description": "De bijgewerkte versie van Claude 2, met een verdubbeling van het contextvenster en verbeteringen in betrouwbaarheid, hallucinatiepercentages en op bewijs gebaseerde nauwkeurigheid in lange documenten en RAG-contexten."
|
|
628
655
|
},
|
|
629
656
|
"anthropic/claude-3-haiku": {
|
|
630
|
-
"description": "Claude 3 Haiku is het snelste
|
|
657
|
+
"description": "Claude 3 Haiku is het snelste model van Anthropic tot nu toe, ontworpen voor bedrijfsworkloads die doorgaans langere prompts vereisen. Haiku kan snel grote hoeveelheden documenten analyseren, zoals kwartaalrapporten, contracten of juridische zaken, tegen de helft van de kosten van andere modellen in zijn prestatieniveau."
|
|
631
658
|
},
|
|
632
659
|
"anthropic/claude-3-opus": {
|
|
633
|
-
"description": "Claude 3 Opus is het
|
|
660
|
+
"description": "Claude 3 Opus is het slimste model van Anthropic met marktleidende prestaties bij zeer complexe taken. Het kan open prompts en ongeziene scenario's met uitstekende vloeiendheid en mensachtige begrip hanteren."
|
|
634
661
|
},
|
|
635
662
|
"anthropic/claude-3.5-haiku": {
|
|
636
|
-
"description": "Claude 3.5 Haiku is
|
|
663
|
+
"description": "Claude 3.5 Haiku is de volgende generatie van ons snelste model. Met een vergelijkbare snelheid als Claude 3 Haiku, is Claude 3.5 Haiku verbeterd in elke vaardigheid en overtreft het in veel intelligentie benchmarks ons vorige grootste model Claude 3 Opus."
|
|
637
664
|
},
|
|
638
665
|
"anthropic/claude-3.5-sonnet": {
|
|
639
|
-
"description": "Claude 3.5 Sonnet
|
|
666
|
+
"description": "Claude 3.5 Sonnet bereikt een ideale balans tussen intelligentie en snelheid, vooral voor bedrijfsworkloads. Het levert krachtige prestaties tegen lagere kosten dan vergelijkbare producten en is ontworpen voor hoge duurzaamheid in grootschalige AI-implementaties."
|
|
640
667
|
},
|
|
641
668
|
"anthropic/claude-3.7-sonnet": {
|
|
642
|
-
"description": "Claude 3.7 Sonnet is het
|
|
669
|
+
"description": "Claude 3.7 Sonnet is het eerste hybride redeneermodel en het slimste model van Anthropic tot nu toe. Het biedt geavanceerde prestaties in codering, contentgeneratie, data-analyse en planningsopdrachten, voortbouwend op de software-engineering en computergebruikcapaciteiten van zijn voorganger Claude 3.5 Sonnet."
|
|
643
670
|
},
|
|
644
671
|
"anthropic/claude-opus-4": {
|
|
645
|
-
"description": "Claude Opus 4 is het krachtigste model van Anthropic
|
|
672
|
+
"description": "Claude Opus 4 is het krachtigste model van Anthropic tot nu toe en het beste codemodel ter wereld, leidend op SWE-bench (72,5%) en Terminal-bench (43,2%). Het levert consistente prestaties voor langdurige taken die focus en duizenden stappen vereisen, en kan urenlang onafgebroken werken – wat de capaciteiten van AI-agenten aanzienlijk uitbreidt."
|
|
673
|
+
},
|
|
674
|
+
"anthropic/claude-opus-4.1": {
|
|
675
|
+
"description": "Claude Opus 4.1 is een plug-and-play alternatief voor Opus 4, dat uitstekende prestaties en nauwkeurigheid biedt voor praktische codeer- en agenttaken. Opus 4.1 verhoogt de geavanceerde codeerprestaties tot 74,5% op SWE-bench Verified en behandelt complexe meerstapsproblemen met grotere nauwkeurigheid en aandacht voor detail."
|
|
646
676
|
},
|
|
647
677
|
"anthropic/claude-sonnet-4": {
|
|
648
|
-
"description": "Claude Sonnet 4
|
|
678
|
+
"description": "Claude Sonnet 4 bouwt voort op de toonaangevende capaciteiten van Sonnet 3.7 en blinkt uit in codering met een geavanceerde score van 72,7% op SWE-bench. Het model balanceert prestaties en efficiëntie, geschikt voor interne en externe toepassingen, en biedt grotere controle via verbeterde beheersbaarheid."
|
|
649
679
|
},
|
|
650
680
|
"ascend-tribe/pangu-pro-moe": {
|
|
651
681
|
"description": "Pangu-Pro-MoE 72B-A16B is een sparsely activated groot taalmodel met 72 miljard parameters en 16 miljard geactiveerde parameters. Het is gebaseerd op de Group Mixture of Experts (MoGE) architectuur, waarbij experts worden gegroepeerd tijdens de selectie en tokens binnen elke groep een gelijk aantal experts activeren, wat zorgt voor een gebalanceerde expertbelasting en de efficiëntie van modelimplementatie op het Ascend-platform aanzienlijk verbetert."
|
|
@@ -797,6 +827,18 @@
|
|
|
797
827
|
"cohere/Cohere-command-r-plus": {
|
|
798
828
|
"description": "Command R+ is een geavanceerd RAG-geoptimaliseerd model, ontworpen voor bedrijfsniveau workloads."
|
|
799
829
|
},
|
|
830
|
+
"cohere/command-a": {
|
|
831
|
+
"description": "Command A is het krachtigste model van Cohere tot nu toe, met uitstekende prestaties in toolgebruik, agenten, retrieval-augmented generation (RAG) en meertalige toepassingen. Command A heeft een contextlengte van 256K en kan draaien op slechts twee GPU's, met een 150% hogere doorvoer dan Command R+ 08-2024."
|
|
832
|
+
},
|
|
833
|
+
"cohere/command-r": {
|
|
834
|
+
"description": "Command R is een groot taalmodel geoptimaliseerd voor dialooginteracties en lange contexttaken. Het valt in de categorie 'schaalbare' modellen en balanceert hoge prestaties met sterke nauwkeurigheid, waardoor bedrijven verder kunnen gaan dan proof-of-concept naar productie."
|
|
835
|
+
},
|
|
836
|
+
"cohere/command-r-plus": {
|
|
837
|
+
"description": "Command R+ is het nieuwste grote taalmodel van Cohere, geoptimaliseerd voor dialooginteracties en lange contexttaken. Het streeft naar uitzonderlijke prestaties, zodat bedrijven verder kunnen gaan dan proof-of-concept naar productie."
|
|
838
|
+
},
|
|
839
|
+
"cohere/embed-v4.0": {
|
|
840
|
+
"description": "Een model dat tekst, afbeeldingen of gemengde inhoud kan classificeren of omzetten in embeddings."
|
|
841
|
+
},
|
|
800
842
|
"command": {
|
|
801
843
|
"description": "Een instructievolgend dialoogmodel dat hoge kwaliteit en betrouwbaarheid biedt voor taaltaken, met een langere contextlengte dan ons basisgeneratiemodel."
|
|
802
844
|
},
|
|
@@ -975,7 +1017,7 @@
|
|
|
975
1017
|
"description": "DeepSeek-V3.1 is een groot hybride redeneermodel dat 128K lange context ondersteunt en efficiënte moduswisselingen mogelijk maakt. Het levert uitstekende prestaties en snelheid bij toolaanroepen, codegeneratie en complexe redeneertaken."
|
|
976
1018
|
},
|
|
977
1019
|
"deepseek/deepseek-r1": {
|
|
978
|
-
"description": "DeepSeek-
|
|
1020
|
+
"description": "Het DeepSeek R1-model heeft een kleine versie-upgrade ondergaan, momenteel DeepSeek-R1-0528. In de nieuwste update verbetert DeepSeek R1 aanzienlijk de diepte en capaciteit van redeneren door gebruik te maken van verhoogde rekenkracht en na training geïntroduceerde algoritmische optimalisaties. Het model presteert uitstekend op benchmarks voor wiskunde, programmeren en algemene logica, en nadert nu de prestaties van toonaangevende modellen zoals O3 en Gemini 2.5 Pro."
|
|
979
1021
|
},
|
|
980
1022
|
"deepseek/deepseek-r1-0528": {
|
|
981
1023
|
"description": "DeepSeek-R1 verbetert de redeneercapaciteit van het model aanzienlijk, zelfs met zeer weinig gelabelde data. Voor het geven van het uiteindelijke antwoord genereert het model eerst een keten van gedachten om de nauwkeurigheid van het antwoord te verhogen."
|
|
@@ -984,7 +1026,7 @@
|
|
|
984
1026
|
"description": "DeepSeek-R1 verbetert de redeneercapaciteit van het model aanzienlijk, zelfs met zeer weinig gelabelde data. Voor het geven van het uiteindelijke antwoord genereert het model eerst een keten van gedachten om de nauwkeurigheid van het antwoord te verhogen."
|
|
985
1027
|
},
|
|
986
1028
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
987
|
-
"description": "DeepSeek
|
|
1029
|
+
"description": "DeepSeek-R1-Distill-Llama-70B is een gedistilleerde, efficiëntere variant van het 70B Llama-model. Het behoudt sterke prestaties bij tekstgeneratietaken en vermindert de rekenbelasting voor gemakkelijke implementatie en onderzoek. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
|
|
988
1030
|
},
|
|
989
1031
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
990
1032
|
"description": "DeepSeek R1 Distill Llama 8B is een gedistilleerd groot taalmodel gebaseerd op Llama-3.1-8B-Instruct, dat is getraind met behulp van de output van DeepSeek R1."
|
|
@@ -1002,7 +1044,10 @@
|
|
|
1002
1044
|
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
|
|
1003
1045
|
},
|
|
1004
1046
|
"deepseek/deepseek-v3": {
|
|
1005
|
-
"description": "
|
|
1047
|
+
"description": "Snel en universeel groot taalmodel met verbeterde redeneercapaciteiten."
|
|
1048
|
+
},
|
|
1049
|
+
"deepseek/deepseek-v3.1-base": {
|
|
1050
|
+
"description": "DeepSeek V3.1 Base is een verbeterde versie van het DeepSeek V3-model."
|
|
1006
1051
|
},
|
|
1007
1052
|
"deepseek/deepseek-v3/community": {
|
|
1008
1053
|
"description": "DeepSeek-V3 heeft een belangrijke doorbraak bereikt in inferentiesnelheid ten opzichte van eerdere modellen. Het staat op de eerste plaats onder open-source modellen en kan zich meten met de meest geavanceerde gesloten modellen ter wereld. DeepSeek-V3 maakt gebruik van Multi-Head Latent Attention (MLA) en de DeepSeekMoE-architectuur, die grondig zijn gevalideerd in DeepSeek-V2. Bovendien introduceert DeepSeek-V3 een aanvullende verliesloze strategie voor load balancing en stelt het multi-label voorspellingsdoelen in om sterkere prestaties te behalen."
|
|
@@ -1430,18 +1475,27 @@
|
|
|
1430
1475
|
"glm-zero-preview": {
|
|
1431
1476
|
"description": "GLM-Zero-Preview heeft krachtige complexe redeneercapaciteiten en presteert uitstekend in logische redenering, wiskunde en programmeren."
|
|
1432
1477
|
},
|
|
1478
|
+
"google/gemini-2.0-flash": {
|
|
1479
|
+
"description": "Gemini 2.0 Flash biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
|
|
1480
|
+
},
|
|
1433
1481
|
"google/gemini-2.0-flash-001": {
|
|
1434
1482
|
"description": "Gemini 2.0 Flash biedt next-gen functies en verbeteringen, waaronder uitstekende snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1M tokens."
|
|
1435
1483
|
},
|
|
1436
1484
|
"google/gemini-2.0-flash-exp:free": {
|
|
1437
1485
|
"description": "Gemini 2.0 Flash Experimental is Google's nieuwste experimentele multimodale AI-model, met een aanzienlijke kwaliteitsverbetering ten opzichte van eerdere versies, vooral voor wereldkennis, code en lange context."
|
|
1438
1486
|
},
|
|
1487
|
+
"google/gemini-2.0-flash-lite": {
|
|
1488
|
+
"description": "Gemini 2.0 Flash Lite biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
|
|
1489
|
+
},
|
|
1439
1490
|
"google/gemini-2.5-flash": {
|
|
1440
|
-
"description": "Gemini 2.5 Flash is
|
|
1491
|
+
"description": "Gemini 2.5 Flash is een denkmodel met uitstekende allround capaciteiten. Het is ontworpen om een balans te vinden tussen prijs en prestaties, ondersteunt multimodale input en een contextvenster van 1 miljoen tokens."
|
|
1441
1492
|
},
|
|
1442
1493
|
"google/gemini-2.5-flash-image-preview": {
|
|
1443
1494
|
"description": "Gemini 2.5 Flash experimenteel model, ondersteunt beeldgeneratie"
|
|
1444
1495
|
},
|
|
1496
|
+
"google/gemini-2.5-flash-lite": {
|
|
1497
|
+
"description": "Gemini 2.5 Flash-Lite is een gebalanceerd, laag-latentie model met configureerbaar denkbudget en toolconnectiviteit (zoals Google Search grounding en code-executie). Het ondersteunt multimodale input en biedt een contextvenster van 1 miljoen tokens."
|
|
1498
|
+
},
|
|
1445
1499
|
"google/gemini-2.5-flash-preview": {
|
|
1446
1500
|
"description": "Gemini 2.5 Flash is Google's meest geavanceerde hoofmodel, ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denkkracht', waardoor het in staat is om antwoorden te geven met een hogere nauwkeurigheid en gedetailleerde contextverwerking.\n\nLet op: dit model heeft twee varianten: denken en niet-denken. De outputprijs verschilt aanzienlijk afhankelijk van of de denkkracht is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' suffix), zal het model expliciet vermijden om denk-tokens te genereren.\n\nOm gebruik te maken van de denkkracht en denk-tokens te ontvangen, moet u de ':thinking' variant kiezen, wat resulteert in hogere prijzen voor denk-output.\n\nBovendien kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'max tokens for reasoning', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1447
1501
|
},
|
|
@@ -1449,11 +1503,14 @@
|
|
|
1449
1503
|
"description": "Gemini 2.5 Flash is Google's meest geavanceerde hoofmodel, ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denkkracht', waardoor het in staat is om antwoorden te geven met een hogere nauwkeurigheid en gedetailleerde contextverwerking.\n\nLet op: dit model heeft twee varianten: denken en niet-denken. De outputprijs verschilt aanzienlijk afhankelijk van of de denkkracht is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' suffix), zal het model expliciet vermijden om denk-tokens te genereren.\n\nOm gebruik te maken van de denkkracht en denk-tokens te ontvangen, moet u de ':thinking' variant kiezen, wat resulteert in hogere prijzen voor denk-output.\n\nBovendien kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'max tokens for reasoning', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1450
1504
|
},
|
|
1451
1505
|
"google/gemini-2.5-pro": {
|
|
1452
|
-
"description": "Gemini 2.5 Pro is
|
|
1506
|
+
"description": "Gemini 2.5 Pro is ons meest geavanceerde redeneermodel, in staat om complexe problemen op te lossen. Het heeft een contextvenster van 2 miljoen tokens en ondersteunt multimodale input, waaronder tekst, afbeeldingen, audio, video en PDF-documenten."
|
|
1453
1507
|
},
|
|
1454
1508
|
"google/gemini-2.5-pro-preview": {
|
|
1455
1509
|
"description": "Gemini 2.5 Pro Preview is het meest geavanceerde denkkader van Google, dat in staat is om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en grote datasets, codebases en documenten te analyseren met behulp van lange context."
|
|
1456
1510
|
},
|
|
1511
|
+
"google/gemini-embedding-001": {
|
|
1512
|
+
"description": "State-of-the-art embed-model met uitstekende prestaties in Engels, meertalige en codeertaken."
|
|
1513
|
+
},
|
|
1457
1514
|
"google/gemini-flash-1.5": {
|
|
1458
1515
|
"description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
|
|
1459
1516
|
},
|
|
@@ -1490,6 +1547,12 @@
|
|
|
1490
1547
|
"google/gemma-3-27b-it": {
|
|
1491
1548
|
"description": "Gemma 3 27B is een open-source taalmodel van Google dat nieuwe normen heeft gesteld op het gebied van efficiëntie en prestaties."
|
|
1492
1549
|
},
|
|
1550
|
+
"google/text-embedding-005": {
|
|
1551
|
+
"description": "Engels-georiënteerd tekstembed-model geoptimaliseerd voor codeer- en Engelse taalopdrachten."
|
|
1552
|
+
},
|
|
1553
|
+
"google/text-multilingual-embedding-002": {
|
|
1554
|
+
"description": "Meertalig tekstembed-model geoptimaliseerd voor cross-linguale taken, ondersteunt meerdere talen."
|
|
1555
|
+
},
|
|
1493
1556
|
"gpt-3.5-turbo": {
|
|
1494
1557
|
"description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125."
|
|
1495
1558
|
},
|
|
@@ -1781,6 +1844,9 @@
|
|
|
1781
1844
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
|
1782
1845
|
"description": "Imagen 4e generatie tekst-naar-beeld modelserie Ultra versie"
|
|
1783
1846
|
},
|
|
1847
|
+
"inception/mercury-coder-small": {
|
|
1848
|
+
"description": "Mercury Coder Small is ideaal voor codegeneratie, debugging en refactoring taken met minimale latentie."
|
|
1849
|
+
},
|
|
1784
1850
|
"inclusionAI/Ling-mini-2.0": {
|
|
1785
1851
|
"description": "Ling-mini-2.0 is een klein, hoogwaardig groot taalmodel gebaseerd op de MoE-architectuur. Het heeft in totaal 16 miljard parameters, maar activeert slechts 1,4 miljard per token (non-embedding 789 miljoen), wat zorgt voor een extreem hoge generatie snelheid. Dankzij het efficiënte MoE-ontwerp en grootschalige, hoogwaardige trainingsdata levert Ling-mini-2.0, ondanks slechts 1,4 miljard geactiveerde parameters, toch topprestaties die vergelijkbaar zijn met dense LLM's onder de 10 miljard en grotere MoE-modellen in downstream taken."
|
|
1786
1852
|
},
|
|
@@ -2057,30 +2123,63 @@
|
|
|
2057
2123
|
"meta/Meta-Llama-3.1-8B-Instruct": {
|
|
2058
2124
|
"description": "Llama 3.1 tekstmodel met instructie-finetuning, geoptimaliseerd voor meertalige dialoogtoepassingen, presteert uitstekend op veelgebruikte industriële benchmarks vergeleken met beschikbare open-source en gesloten chatmodellen."
|
|
2059
2125
|
},
|
|
2126
|
+
"meta/llama-3-70b": {
|
|
2127
|
+
"description": "Een open-source model met 70 miljard parameters, zorgvuldig afgestemd door Meta voor instructienaleving. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
|
|
2128
|
+
},
|
|
2129
|
+
"meta/llama-3-8b": {
|
|
2130
|
+
"description": "Een open-source model met 8 miljard parameters, zorgvuldig afgestemd door Meta voor instructienaleving. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
|
|
2131
|
+
},
|
|
2060
2132
|
"meta/llama-3.1-405b-instruct": {
|
|
2061
2133
|
"description": "Geavanceerd LLM, ondersteunt synthetische gegevensgeneratie, kennisdistillatie en redeneren, geschikt voor chatbots, programmeren en specifieke domeintaken."
|
|
2062
2134
|
},
|
|
2135
|
+
"meta/llama-3.1-70b": {
|
|
2136
|
+
"description": "Een bijgewerkte versie van Meta Llama 3 70B Instruct, met een uitgebreid contextvenster van 128K tokens, meertalige ondersteuning en verbeterde redeneercapaciteiten."
|
|
2137
|
+
},
|
|
2063
2138
|
"meta/llama-3.1-70b-instruct": {
|
|
2064
2139
|
"description": "In staat om complexe gesprekken te ondersteunen, met uitstekende contextbegrip, redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
|
2065
2140
|
},
|
|
2141
|
+
"meta/llama-3.1-8b": {
|
|
2142
|
+
"description": "Llama 3.1 8B ondersteunt een contextvenster van 128K tokens, ideaal voor realtime dialooginterfaces en data-analyse, met aanzienlijke kostenbesparingen ten opzichte van grotere modellen. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
|
|
2143
|
+
},
|
|
2066
2144
|
"meta/llama-3.1-8b-instruct": {
|
|
2067
2145
|
"description": "Geavanceerd, state-of-the-art model met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
|
2068
2146
|
},
|
|
2147
|
+
"meta/llama-3.2-11b": {
|
|
2148
|
+
"description": "Instructie-afgestemd multimodaal redeneermodel (tekst + beeldinvoer / tekstuitvoer), geoptimaliseerd voor visuele herkenning, beeldredenering, titelgeneratie en het beantwoorden van algemene vragen over afbeeldingen."
|
|
2149
|
+
},
|
|
2069
2150
|
"meta/llama-3.2-11b-vision-instruct": {
|
|
2070
2151
|
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
|
|
2071
2152
|
},
|
|
2153
|
+
"meta/llama-3.2-1b": {
|
|
2154
|
+
"description": "Puur tekstmodel, geschikt voor on-device toepassingen zoals meertalige lokale kennisopvraging, samenvatting en herschrijven."
|
|
2155
|
+
},
|
|
2072
2156
|
"meta/llama-3.2-1b-instruct": {
|
|
2073
2157
|
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
|
2074
2158
|
},
|
|
2159
|
+
"meta/llama-3.2-3b": {
|
|
2160
|
+
"description": "Puur tekstmodel, zorgvuldig afgestemd voor ondersteuning van on-device toepassingen zoals meertalige lokale kennisopvraging, samenvatting en herschrijven."
|
|
2161
|
+
},
|
|
2075
2162
|
"meta/llama-3.2-3b-instruct": {
|
|
2076
2163
|
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
|
2077
2164
|
},
|
|
2165
|
+
"meta/llama-3.2-90b": {
|
|
2166
|
+
"description": "Instructie-afgestemd multimodaal redeneermodel (tekst + beeldinvoer / tekstuitvoer), geoptimaliseerd voor visuele herkenning, beeldredenering, titelgeneratie en het beantwoorden van algemene vragen over afbeeldingen."
|
|
2167
|
+
},
|
|
2078
2168
|
"meta/llama-3.2-90b-vision-instruct": {
|
|
2079
2169
|
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
|
|
2080
2170
|
},
|
|
2171
|
+
"meta/llama-3.3-70b": {
|
|
2172
|
+
"description": "De perfecte combinatie van prestaties en efficiëntie. Dit model ondersteunt krachtige dialoog-AI, ontworpen voor contentcreatie, bedrijfsapplicaties en onderzoek, met geavanceerde taalbegripcapaciteiten zoals tekstsamenvatting, classificatie, sentimentanalyse en codegeneratie."
|
|
2173
|
+
},
|
|
2081
2174
|
"meta/llama-3.3-70b-instruct": {
|
|
2082
2175
|
"description": "Geavanceerd LLM, gespecialiseerd in redeneren, wiskunde, algemene kennis en functieaanroepen."
|
|
2083
2176
|
},
|
|
2177
|
+
"meta/llama-4-maverick": {
|
|
2178
|
+
"description": "De Llama 4 modelreeks is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt. Deze modellen gebruiken een hybride expertarchitectuur om toonaangevende prestaties te leveren in tekst- en beeldbegrip. Llama 4 Maverick is een model met 17 miljard parameters en 128 experts. Gehost door DeepInfra."
|
|
2179
|
+
},
|
|
2180
|
+
"meta/llama-4-scout": {
|
|
2181
|
+
"description": "De Llama 4 modelreeks is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt. Deze modellen gebruiken een hybride expertarchitectuur om toonaangevende prestaties te leveren in tekst- en beeldbegrip. Llama 4 Scout is een model met 17 miljard parameters en 16 experts. Gehost door DeepInfra."
|
|
2182
|
+
},
|
|
2084
2183
|
"microsoft/Phi-3-medium-128k-instruct": {
|
|
2085
2184
|
"description": "Hetzelfde Phi-3-medium model, maar met een groter contextvenster, geschikt voor RAG of weinig prompts."
|
|
2086
2185
|
},
|
|
@@ -2156,6 +2255,48 @@
|
|
|
2156
2255
|
"mistral-small-latest": {
|
|
2157
2256
|
"description": "Mistral Small is een kosteneffectieve, snelle en betrouwbare optie voor gebruikscases zoals vertaling, samenvatting en sentimentanalyse."
|
|
2158
2257
|
},
|
|
2258
|
+
"mistral/codestral": {
|
|
2259
|
+
"description": "Mistral Codestral 25.01 is een geavanceerd codemodel, geoptimaliseerd voor lage latentie en hoge frequentie gebruiksscenario's. Het beheerst meer dan 80 programmeertalen en blinkt uit in taken zoals fill-in-the-middle (FIM), codecorrectie en testgeneratie."
|
|
2260
|
+
},
|
|
2261
|
+
"mistral/codestral-embed": {
|
|
2262
|
+
"description": "Een code-embed-model dat kan worden ingebed in code-databases en repositories ter ondersteuning van code-assistenten."
|
|
2263
|
+
},
|
|
2264
|
+
"mistral/devstral-small": {
|
|
2265
|
+
"description": "Devstral is een agent-groot taalmodel voor software engineering taken, waardoor het een uitstekende keuze is voor software engineering agenten."
|
|
2266
|
+
},
|
|
2267
|
+
"mistral/magistral-medium": {
|
|
2268
|
+
"description": "Complex denken ondersteund door diepgaand begrip, met transparante redenering die u kunt volgen en verifiëren. Dit model behoudt hoge-fideliteit redenering in meerdere talen, zelfs bij tussentijdse taalwisselingen in taken."
|
|
2269
|
+
},
|
|
2270
|
+
"mistral/magistral-small": {
|
|
2271
|
+
"description": "Complex denken ondersteund door diepgaand begrip, met transparante redenering die u kunt volgen en verifiëren. Dit model behoudt hoge-fideliteit redenering in meerdere talen, zelfs bij tussentijdse taalwisselingen in taken."
|
|
2272
|
+
},
|
|
2273
|
+
"mistral/ministral-3b": {
|
|
2274
|
+
"description": "Een compact, efficiënt model voor on-device taken zoals slimme assistenten en lokale analyse, met lage latentie prestaties."
|
|
2275
|
+
},
|
|
2276
|
+
"mistral/ministral-8b": {
|
|
2277
|
+
"description": "Een krachtiger model met snellere, geheugen-efficiënte inferentie, ideaal voor complexe workflows en veeleisende edge-toepassingen."
|
|
2278
|
+
},
|
|
2279
|
+
"mistral/mistral-embed": {
|
|
2280
|
+
"description": "Een universeel tekst-embed-model voor semantisch zoeken, gelijkenis, clustering en RAG-workflows."
|
|
2281
|
+
},
|
|
2282
|
+
"mistral/mistral-large": {
|
|
2283
|
+
"description": "Mistral Large is ideaal voor complexe taken die grote redeneercapaciteit of hoge specialisatie vereisen, zoals synthetische tekstgeneratie, codegeneratie, RAG of agenten."
|
|
2284
|
+
},
|
|
2285
|
+
"mistral/mistral-saba-24b": {
|
|
2286
|
+
"description": "Mistral Saba 24B is een open-source model met 24 miljard parameters ontwikkeld door Mistral.ai. Saba is een gespecialiseerd model dat is getraind om uit te blinken in Arabisch, Perzisch, Urdu, Hebreeuws en Indiase talen. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
|
|
2287
|
+
},
|
|
2288
|
+
"mistral/mistral-small": {
|
|
2289
|
+
"description": "Mistral Small is ideaal voor eenvoudige taken die in bulk kunnen worden uitgevoerd, zoals classificatie, klantenondersteuning of tekstgeneratie. Het biedt uitstekende prestaties tegen een betaalbare prijs."
|
|
2290
|
+
},
|
|
2291
|
+
"mistral/mixtral-8x22b-instruct": {
|
|
2292
|
+
"description": "8x22b Instruct model. 8x22b is een hybride expert open-source model dat door Mistral wordt gehost."
|
|
2293
|
+
},
|
|
2294
|
+
"mistral/pixtral-12b": {
|
|
2295
|
+
"description": "Een 12 miljard parameters model met beeldbegripcapaciteiten, naast tekst."
|
|
2296
|
+
},
|
|
2297
|
+
"mistral/pixtral-large": {
|
|
2298
|
+
"description": "Pixtral Large is het tweede model in onze multimodale familie en toont geavanceerde beeldbegrip. Het model kan documenten, diagrammen en natuurlijke beelden begrijpen, terwijl het de toonaangevende tekstbegripcapaciteiten van Mistral Large 2 behoudt."
|
|
2299
|
+
},
|
|
2159
2300
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
|
2160
2301
|
"description": "Mistral (7B) Instruct staat bekend om zijn hoge prestaties en is geschikt voor verschillende taalgerelateerde taken."
|
|
2161
2302
|
},
|
|
@@ -2222,12 +2363,21 @@
|
|
|
2222
2363
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2223
2364
|
"description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
|
|
2224
2365
|
},
|
|
2366
|
+
"moonshotai/kimi-k2": {
|
|
2367
|
+
"description": "Kimi K2 is een grootschalig hybride expert (MoE) taalmodel ontwikkeld door Moonshot AI, met in totaal 1 biljoen parameters en 32 miljard actieve parameters per voorwaartse pass. Het is geoptimaliseerd voor agentcapaciteiten, waaronder geavanceerd toolgebruik, redeneren en code-synthese."
|
|
2368
|
+
},
|
|
2225
2369
|
"moonshotai/kimi-k2-0905": {
|
|
2226
2370
|
"description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
|
|
2227
2371
|
},
|
|
2228
2372
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2229
2373
|
"description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
|
|
2230
2374
|
},
|
|
2375
|
+
"morph/morph-v3-fast": {
|
|
2376
|
+
"description": "Morph biedt een gespecialiseerd AI-model dat codewijzigingen, voorgesteld door toonaangevende modellen zoals Claude of GPT-4o, snel toepast op uw bestaande codebestanden - FAST - meer dan 4500 tokens per seconde. Het fungeert als de laatste stap in AI-codeerworkflows. Ondersteunt 16k input tokens en 16k output tokens."
|
|
2377
|
+
},
|
|
2378
|
+
"morph/morph-v3-large": {
|
|
2379
|
+
"description": "Morph biedt een gespecialiseerd AI-model dat codewijzigingen, voorgesteld door toonaangevende modellen zoals Claude of GPT-4o, toepast op uw bestaande codebestanden - FAST - meer dan 2500 tokens per seconde. Het fungeert als de laatste stap in AI-codeerworkflows. Ondersteunt 16k input tokens en 16k output tokens."
|
|
2380
|
+
},
|
|
2231
2381
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2232
2382
|
"description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets."
|
|
2233
2383
|
},
|
|
@@ -2294,29 +2444,47 @@
|
|
|
2294
2444
|
"open-mixtral-8x7b": {
|
|
2295
2445
|
"description": "Mixtral 8x7B is een spaarzaam expertmodel dat meerdere parameters benut om de inferentiesnelheid te verhogen, geschikt voor het verwerken van meertalige en codegeneratietaken."
|
|
2296
2446
|
},
|
|
2447
|
+
"openai/gpt-3.5-turbo": {
|
|
2448
|
+
"description": "OpenAI's meest capabele en kosteneffectieve model in de GPT-3.5-serie, geoptimaliseerd voor chatdoeleinden maar presteert ook goed bij traditionele voltooiingstaken."
|
|
2449
|
+
},
|
|
2450
|
+
"openai/gpt-3.5-turbo-instruct": {
|
|
2451
|
+
"description": "Vergelijkbare capaciteiten als modellen uit het GPT-3-tijdperk. Compatibel met traditionele voltooiingseindpunten in plaats van chatvoltooiingseindpunten."
|
|
2452
|
+
},
|
|
2453
|
+
"openai/gpt-4-turbo": {
|
|
2454
|
+
"description": "OpenAI's gpt-4-turbo beschikt over uitgebreide algemene kennis en domeinspecialisatie, waardoor het complexe natuurlijke taalopdrachten kan volgen en moeilijke problemen nauwkeurig kan oplossen. De kennisdatum is april 2023 en het contextvenster is 128.000 tokens."
|
|
2455
|
+
},
|
|
2297
2456
|
"openai/gpt-4.1": {
|
|
2298
|
-
"description": "GPT
|
|
2457
|
+
"description": "GPT 4.1 is het vlaggenschipmodel van OpenAI, geschikt voor complexe taken. Het is uitstekend in het oplossen van problemen over verschillende domeinen heen."
|
|
2299
2458
|
},
|
|
2300
2459
|
"openai/gpt-4.1-mini": {
|
|
2301
|
-
"description": "GPT
|
|
2460
|
+
"description": "GPT 4.1 mini balanceert intelligentie, snelheid en kosten, waardoor het een aantrekkelijk model is voor veel toepassingen."
|
|
2302
2461
|
},
|
|
2303
2462
|
"openai/gpt-4.1-nano": {
|
|
2304
|
-
"description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT
|
|
2463
|
+
"description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT 4.1-model."
|
|
2305
2464
|
},
|
|
2306
2465
|
"openai/gpt-4o": {
|
|
2307
|
-
"description": "
|
|
2466
|
+
"description": "GPT-4o van OpenAI heeft uitgebreide algemene kennis en domeinspecialisatie, kan complexe natuurlijke taalopdrachten volgen en moeilijke problemen nauwkeurig oplossen. Het biedt prestaties vergelijkbaar met GPT-4 Turbo via een snellere en goedkopere API."
|
|
2308
2467
|
},
|
|
2309
2468
|
"openai/gpt-4o-mini": {
|
|
2310
|
-
"description": "GPT-4o mini
|
|
2469
|
+
"description": "GPT-4o mini van OpenAI is hun meest geavanceerde en kosteneffectieve kleine model. Het is multimodaal (accepteert tekst- of beeldinvoer en genereert tekst) en intelligenter dan gpt-3.5-turbo, met vergelijkbare snelheid."
|
|
2470
|
+
},
|
|
2471
|
+
"openai/gpt-5": {
|
|
2472
|
+
"description": "GPT-5 is het vlaggenschip taalmodel van OpenAI, uitmuntend in complex redeneren, uitgebreide wereldkennis, code-intensieve en meerstaps agenttaken."
|
|
2473
|
+
},
|
|
2474
|
+
"openai/gpt-5-mini": {
|
|
2475
|
+
"description": "GPT-5 mini is een kosten-geoptimaliseerd model dat uitblinkt in redeneer- en chattaken. Het biedt de beste balans tussen snelheid, kosten en capaciteit."
|
|
2476
|
+
},
|
|
2477
|
+
"openai/gpt-5-nano": {
|
|
2478
|
+
"description": "GPT-5 nano is een model met hoge doorvoer, uitstekend in eenvoudige instructies of classificatietaken."
|
|
2311
2479
|
},
|
|
2312
2480
|
"openai/gpt-oss-120b": {
|
|
2313
|
-
"description": "
|
|
2481
|
+
"description": "Een uiterst capabel universeel groot taalmodel met krachtige, controleerbare redeneercapaciteiten."
|
|
2314
2482
|
},
|
|
2315
2483
|
"openai/gpt-oss-20b": {
|
|
2316
|
-
"description": "
|
|
2484
|
+
"description": "Een compact open-source taalmodel, geoptimaliseerd voor lage latentie en omgevingen met beperkte middelen, inclusief lokale en edge-implementaties."
|
|
2317
2485
|
},
|
|
2318
2486
|
"openai/o1": {
|
|
2319
|
-
"description": "o1 is het
|
|
2487
|
+
"description": "OpenAI's o1 is het vlaggenschip redeneermodel, ontworpen voor complexe problemen die diep nadenken vereisen. Het biedt krachtige redeneercapaciteiten en hogere nauwkeurigheid voor complexe meerstaps taken."
|
|
2320
2488
|
},
|
|
2321
2489
|
"openai/o1-mini": {
|
|
2322
2490
|
"description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
|
|
@@ -2325,23 +2493,44 @@
|
|
|
2325
2493
|
"description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
|
|
2326
2494
|
},
|
|
2327
2495
|
"openai/o3": {
|
|
2328
|
-
"description": "o3 is
|
|
2496
|
+
"description": "OpenAI's o3 is het krachtigste redeneermodel, dat nieuwe toonaangevende niveaus bereikt in codering, wiskunde, wetenschap en visuele perceptie. Het blinkt uit in complexe queries die veelzijdige analyse vereisen, met speciale sterkte in het analyseren van afbeeldingen, diagrammen en grafieken."
|
|
2329
2497
|
},
|
|
2330
2498
|
"openai/o3-mini": {
|
|
2331
|
-
"description": "o3-mini
|
|
2499
|
+
"description": "o3-mini is het nieuwste kleine redeneermodel van OpenAI, dat hoge intelligentie biedt met dezelfde kosten- en latentie-doelen als o1-mini."
|
|
2332
2500
|
},
|
|
2333
2501
|
"openai/o3-mini-high": {
|
|
2334
2502
|
"description": "o3-mini high is een versie met een hoog redeneerniveau die hoge intelligentie biedt met dezelfde kosten- en vertragingdoelen als o1-mini."
|
|
2335
2503
|
},
|
|
2336
2504
|
"openai/o4-mini": {
|
|
2337
|
-
"description": "o4-mini
|
|
2505
|
+
"description": "OpenAI's o4-mini biedt snelle, kosteneffectieve redeneermogelijkheden met uitstekende prestaties voor zijn formaat, vooral in wiskunde (beste in AIME benchmark), codering en visuele taken."
|
|
2338
2506
|
},
|
|
2339
2507
|
"openai/o4-mini-high": {
|
|
2340
2508
|
"description": "o4-mini high inference level versie, geoptimaliseerd voor snelle en efficiënte inferentie, met hoge efficiëntie en prestaties in codering en visuele taken."
|
|
2341
2509
|
},
|
|
2510
|
+
"openai/text-embedding-3-large": {
|
|
2511
|
+
"description": "OpenAI's meest capabele embed-model, geschikt voor Engelse en niet-Engelse taken."
|
|
2512
|
+
},
|
|
2513
|
+
"openai/text-embedding-3-small": {
|
|
2514
|
+
"description": "Een verbeterde, beter presterende versie van OpenAI's ada embed-model."
|
|
2515
|
+
},
|
|
2516
|
+
"openai/text-embedding-ada-002": {
|
|
2517
|
+
"description": "OpenAI's traditionele tekstembed-model."
|
|
2518
|
+
},
|
|
2342
2519
|
"openrouter/auto": {
|
|
2343
2520
|
"description": "Afhankelijk van de contextlengte, het onderwerp en de complexiteit, wordt uw verzoek verzonden naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelfregulerend) of GPT-4o."
|
|
2344
2521
|
},
|
|
2522
|
+
"perplexity/sonar": {
|
|
2523
|
+
"description": "Perplexity's lichtgewicht product met zoekondersteuning, sneller en goedkoper dan Sonar Pro."
|
|
2524
|
+
},
|
|
2525
|
+
"perplexity/sonar-pro": {
|
|
2526
|
+
"description": "Perplexity's vlaggenschipproduct met zoekondersteuning, geschikt voor geavanceerde queries en vervolgacties."
|
|
2527
|
+
},
|
|
2528
|
+
"perplexity/sonar-reasoning": {
|
|
2529
|
+
"description": "Een op redenering gericht model dat chain-of-thought (CoT) outputt in reacties en gedetailleerde uitleg biedt met zoekondersteuning."
|
|
2530
|
+
},
|
|
2531
|
+
"perplexity/sonar-reasoning-pro": {
|
|
2532
|
+
"description": "Een geavanceerd op redenering gericht model dat chain-of-thought (CoT) outputt in reacties en uitgebreide uitleg biedt met verbeterde zoekmogelijkheden en meerdere zoekopdrachten per verzoek."
|
|
2533
|
+
},
|
|
2345
2534
|
"phi3": {
|
|
2346
2535
|
"description": "Phi-3 is een lichtgewicht open model van Microsoft, geschikt voor efficiënte integratie en grootschalige kennisinferentie."
|
|
2347
2536
|
},
|
|
@@ -2804,6 +2993,12 @@
|
|
|
2804
2993
|
"v0-1.5-md": {
|
|
2805
2994
|
"description": "Het v0-1.5-md model is geschikt voor dagelijkse taken en het genereren van gebruikersinterfaces (UI)"
|
|
2806
2995
|
},
|
|
2996
|
+
"vercel/v0-1.0-md": {
|
|
2997
|
+
"description": "Toegang tot het model achter v0 voor het genereren, repareren en optimaliseren van moderne webapplicaties, met framework-specifieke redenering en up-to-date kennis."
|
|
2998
|
+
},
|
|
2999
|
+
"vercel/v0-1.5-md": {
|
|
3000
|
+
"description": "Toegang tot het model achter v0 voor het genereren, repareren en optimaliseren van moderne webapplicaties, met framework-specifieke redenering en up-to-date kennis."
|
|
3001
|
+
},
|
|
2807
3002
|
"wan2.2-t2i-flash": {
|
|
2808
3003
|
"description": "Wanxiang 2.2 Flash-versie, het nieuwste model. Volledige upgrades in creativiteit, stabiliteit en realistische textuur, met snelle generatie en hoge kosteneffectiviteit."
|
|
2809
3004
|
},
|
|
@@ -2834,6 +3029,27 @@
|
|
|
2834
3029
|
"x1": {
|
|
2835
3030
|
"description": "Het Spark X1-model zal verder worden geüpgraded, met verbeterde prestaties in redenering, tekstgeneratie en taalbegrip, ter vergelijking met OpenAI o1 en DeepSeek R1."
|
|
2836
3031
|
},
|
|
3032
|
+
"xai/grok-2": {
|
|
3033
|
+
"description": "Grok 2 is een geavanceerd taalmodel met state-of-the-art redeneercapaciteiten. Het blinkt uit in chat, codering en redeneren, en presteert beter dan Claude 3.5 Sonnet en GPT-4-Turbo op de LMSYS-ranglijst."
|
|
3034
|
+
},
|
|
3035
|
+
"xai/grok-2-vision": {
|
|
3036
|
+
"description": "Grok 2 Vision model presteert uitstekend in visuele taken, met state-of-the-art prestaties in visuele wiskundige redenering (MathVista) en documentgebaseerde vraag-antwoord (DocVQA). Het kan diverse visuele informatie verwerken, waaronder documenten, diagrammen, grafieken, screenshots en foto's."
|
|
3037
|
+
},
|
|
3038
|
+
"xai/grok-3": {
|
|
3039
|
+
"description": "xAI's vlaggenschipmodel, uitmuntend in bedrijfsgebruik zoals data-extractie, codering en tekstsamenvatting. Het beschikt over diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap."
|
|
3040
|
+
},
|
|
3041
|
+
"xai/grok-3-fast": {
|
|
3042
|
+
"description": "xAI's vlaggenschipmodel, uitmuntend in bedrijfsgebruik zoals data-extractie, codering en tekstsamenvatting. De snelle variant wordt gehost op snellere infrastructuur en biedt aanzienlijk snellere responstijden. De verhoogde snelheid gaat gepaard met hogere kosten per outputtoken."
|
|
3043
|
+
},
|
|
3044
|
+
"xai/grok-3-mini": {
|
|
3045
|
+
"description": "xAI's lichtgewicht model dat nadenkt vóór het reageren. Zeer geschikt voor eenvoudige of logische taken zonder diepgaande domeinkennis. De ruwe gedachtegang is toegankelijk."
|
|
3046
|
+
},
|
|
3047
|
+
"xai/grok-3-mini-fast": {
|
|
3048
|
+
"description": "xAI's lichtgewicht model dat nadenkt vóór het reageren. Zeer geschikt voor eenvoudige of logische taken zonder diepgaande domeinkennis. De ruwe gedachtegang is toegankelijk. De snelle variant wordt gehost op snellere infrastructuur en biedt aanzienlijk snellere responstijden. De verhoogde snelheid gaat gepaard met hogere kosten per outputtoken."
|
|
3049
|
+
},
|
|
3050
|
+
"xai/grok-4": {
|
|
3051
|
+
"description": "xAI's nieuwste en beste vlaggenschipmodel, met ongeëvenaarde prestaties in natuurlijke taal, wiskunde en redeneren – de perfecte allrounder."
|
|
3052
|
+
},
|
|
2837
3053
|
"yi-1.5-34b-chat": {
|
|
2838
3054
|
"description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
|
|
2839
3055
|
},
|
|
@@ -2881,5 +3097,14 @@
|
|
|
2881
3097
|
},
|
|
2882
3098
|
"zai-org/GLM-4.5V": {
|
|
2883
3099
|
"description": "GLM-4.5V is de nieuwste generatie visueel-taalmodel (VLM) uitgebracht door Zhipu AI (智谱 AI). Het model is gebouwd op het vlaggenschip-tekstmodel GLM-4.5-Air, dat beschikt over in totaal 106 miljard parameters en 12 miljard activatieparameters, en maakt gebruik van een mixture-of-experts (MoE)-architectuur, met als doel uitstekende prestaties te leveren tegen lagere inferentie-kosten. Technisch bouwt GLM-4.5V voort op de lijn van GLM-4.1V-Thinking en introduceert innovaties zoals driedimensionale roterende positiecodering (3D-RoPE), wat het vermogen om driedimensionale ruimtelijke relaties waar te nemen en te redeneren aanzienlijk versterkt. Door optimalisaties tijdens pretraining, gecontroleerde fine-tuning en reinforcement learning is het model in staat om diverse visuele inhoud te verwerken, waaronder afbeeldingen, video's en lange documenten, en behaalde het in 41 openbare multimodale benchmarks topprestaties vergeleken met gelijkwaardige open-sourcemodellen. Daarnaast bevat het model een nieuwe 'denkmodus'-schakelaar waarmee gebruikers flexibel kunnen kiezen tussen snelle respons en diepgaande redenering om efficiëntie en effectiviteit in balans te brengen."
|
|
3100
|
+
},
|
|
3101
|
+
"zai/glm-4.5": {
|
|
3102
|
+
"description": "De GLM-4.5 modelreeks is speciaal ontworpen als basismodellen voor agenten. Het vlaggenschip GLM-4.5 integreert 355 miljard totale parameters (32 miljard actief) en verenigt redeneer-, codeer- en agentcapaciteiten om complexe toepassingsbehoeften aan te pakken. Als hybride redeneersysteem biedt het dubbele operationele modi."
|
|
3103
|
+
},
|
|
3104
|
+
"zai/glm-4.5-air": {
|
|
3105
|
+
"description": "GLM-4.5 en GLM-4.5-Air zijn onze nieuwste vlaggenschipmodellen, speciaal ontworpen als basismodellen voor agenttoepassingen. Beide maken gebruik van een hybride expert (MoE) architectuur. GLM-4.5 heeft 355 miljard totale parameters met 32 miljard actieve parameters per voorwaartse pass, terwijl GLM-4.5-Air een vereenvoudigd ontwerp heeft met 106 miljard totale parameters en 12 miljard actieve parameters."
|
|
3106
|
+
},
|
|
3107
|
+
"zai/glm-4.5v": {
|
|
3108
|
+
"description": "GLM-4.5V is gebouwd op het GLM-4.5-Air basismodel, erft de bewezen technologie van GLM-4.1V-Thinking en realiseert efficiënte schaalvergroting via een krachtige MoE-architectuur met 106 miljard parameters."
|
|
2884
3109
|
}
|
|
2885
3110
|
}
|
|
@@ -161,6 +161,9 @@
|
|
|
161
161
|
"v0": {
|
|
162
162
|
"description": "v0 is een pair programming-assistent; je hoeft alleen je ideeën in natuurlijke taal te beschrijven, en het genereert code en gebruikersinterfaces (UI) voor je project."
|
|
163
163
|
},
|
|
164
|
+
"vercelaigateway": {
|
|
165
|
+
"description": "Vercel AI Gateway biedt een uniforme API voor toegang tot meer dan 100 modellen, waarmee u via één enkele endpoint modellen van verschillende aanbieders zoals OpenAI, Anthropic en Google kunt gebruiken. Ondersteunt budgetinstellingen, gebruiksmonitoring, verzoekbelastingbalancering en failover."
|
|
166
|
+
},
|
|
164
167
|
"vertexai": {
|
|
165
168
|
"description": "De Gemini-serie van Google is zijn meest geavanceerde, algemene AI-modellen, ontwikkeld door Google DeepMind. Deze modellen zijn ontworpen voor multimodale toepassingen en ondersteunen naadloze begrip en verwerking van tekst, code, afbeeldingen, audio en video. Ze zijn geschikt voor verschillende omgevingen, van datacenters tot mobiele apparaten, en verbeteren aanzienlijk de efficiëntie en toepasbaarheid van AI-modellen."
|
|
166
169
|
},
|