@lobehub/chat 1.129.1 → 1.129.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (41) hide show
  1. package/CHANGELOG.md +33 -0
  2. package/changelog/v1.json +12 -0
  3. package/locales/ar/models.json +248 -23
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +248 -23
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +248 -23
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +248 -23
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +248 -23
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +248 -23
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +248 -23
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +248 -23
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +248 -23
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +248 -23
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +248 -23
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/models.json +248 -23
  26. package/locales/pl-PL/providers.json +3 -0
  27. package/locales/pt-BR/models.json +248 -23
  28. package/locales/pt-BR/providers.json +3 -0
  29. package/locales/ru-RU/models.json +248 -23
  30. package/locales/ru-RU/providers.json +3 -0
  31. package/locales/tr-TR/models.json +248 -23
  32. package/locales/tr-TR/providers.json +3 -0
  33. package/locales/vi-VN/models.json +248 -23
  34. package/locales/vi-VN/providers.json +3 -0
  35. package/locales/zh-CN/models.json +248 -23
  36. package/locales/zh-CN/providers.json +3 -0
  37. package/locales/zh-TW/models.json +248 -23
  38. package/locales/zh-TW/providers.json +3 -0
  39. package/package.json +1 -1
  40. package/packages/database/migrations/0031_add_agent_index.sql +6 -6
  41. package/packages/database/src/core/migrations.json +3 -3
@@ -602,6 +602,33 @@
602
602
  "ai21-labs/AI21-Jamba-1.5-Mini": {
603
603
  "description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (davon 12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und faktengestützte Generierung bietet."
604
604
  },
605
+ "alibaba/qwen-3-14b": {
606
+ "description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
607
+ },
608
+ "alibaba/qwen-3-235b": {
609
+ "description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
610
+ },
611
+ "alibaba/qwen-3-30b": {
612
+ "description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
613
+ },
614
+ "alibaba/qwen-3-32b": {
615
+ "description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
616
+ },
617
+ "alibaba/qwen3-coder": {
618
+ "description": "Qwen3-Coder-480B-A35B-Instruct ist das agentenfähigste Codierungsmodell von Qwen mit herausragender Leistung bei Agenten-Codierung, Agenten-Browsernutzung und anderen grundlegenden Codierungsaufgaben, vergleichbar mit Claude Sonnet."
619
+ },
620
+ "amazon/nova-lite": {
621
+ "description": "Ein äußerst kostengünstiges multimodales Modell, das Bilder, Videos und Texteingaben extrem schnell verarbeitet."
622
+ },
623
+ "amazon/nova-micro": {
624
+ "description": "Ein reines Textmodell, das bei sehr niedrigen Kosten die geringste Latenz für Antworten bietet."
625
+ },
626
+ "amazon/nova-pro": {
627
+ "description": "Ein hochkompetentes multimodales Modell mit optimaler Kombination aus Genauigkeit, Geschwindigkeit und Kosten, geeignet für eine breite Palette von Aufgaben."
628
+ },
629
+ "amazon/titan-embed-text-v2": {
630
+ "description": "Amazon Titan Text Embeddings V2 ist ein leichtgewichtiges, effizientes mehrsprachiges Einbettungsmodell mit Unterstützung für 1024, 512 und 256 Dimensionen."
631
+ },
605
632
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
606
633
  "description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
607
634
  },
@@ -627,25 +654,28 @@
627
654
  "description": "Die aktualisierte Version von Claude 2 bietet ein doppelt so großes Kontextfenster sowie Verbesserungen in der Zuverlässigkeit, der Halluzinationsrate und der evidenzbasierten Genauigkeit in langen Dokumenten und RAG-Kontexten."
628
655
  },
629
656
  "anthropic/claude-3-haiku": {
630
- "description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, das darauf ausgelegt ist, nahezu sofortige Antworten zu liefern. Es bietet schnelle und präzise zielgerichtete Leistungen."
657
+ "description": "Claude 3 Haiku ist das bisher schnellste Modell von Anthropic, speziell für Unternehmens-Workloads mit meist längeren Eingabeaufforderungen entwickelt. Haiku kann große Dokumentenmengen wie Quartalsberichte, Verträge oder Rechtsfälle schnell analysieren und kostet dabei nur die Hälfte anderer Modelle seiner Leistungsklasse."
631
658
  },
632
659
  "anthropic/claude-3-opus": {
633
- "description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic zur Bearbeitung hochkomplexer Aufgaben. Es zeichnet sich durch hervorragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
660
+ "description": "Claude 3 Opus ist das intelligenteste Modell von Anthropic mit marktführender Leistung bei hochkomplexen Aufgaben. Es meistert offene Eingabeaufforderungen und unbekannte Szenarien mit herausragender Flüssigkeit und menschenähnlichem Verständnis."
634
661
  },
635
662
  "anthropic/claude-3.5-haiku": {
636
- "description": "Claude 3.5 Haiku ist das schnellste nächste Generation Modell von Anthropic. Im Vergleich zu Claude 3 Haiku hat Claude 3.5 Haiku in allen Fähigkeiten Fortschritte gemacht und übertrifft in vielen intellektuellen Benchmark-Tests das größte Modell der vorherigen Generation, Claude 3 Opus."
663
+ "description": "Claude 3.5 Haiku ist die nächste Generation unseres schnellsten Modells. Mit ähnlicher Geschwindigkeit wie Claude 3 Haiku wurde Claude 3.5 Haiku in allen Kompetenzbereichen verbessert und übertrifft in vielen Intelligenz-Benchmarks unser bisher größtes Modell Claude 3 Opus."
637
664
  },
638
665
  "anthropic/claude-3.5-sonnet": {
639
- "description": "Claude 3.5 Sonnet bietet Fähigkeiten, die über Opus hinausgehen, und eine schnellere Geschwindigkeit als Sonnet, während es den gleichen Preis wie Sonnet beibehält. Sonnet ist besonders gut in Programmierung, Datenwissenschaft, visueller Verarbeitung und Agentenaufgaben."
666
+ "description": "Claude 3.5 Sonnet erreicht eine ideale Balance zwischen Intelligenz und Geschwindigkeit besonders für Unternehmens-Workloads. Im Vergleich zu ähnlichen Produkten bietet es starke Leistung zu geringeren Kosten und ist für hohe Belastbarkeit bei großflächigen KI-Einsätzen konzipiert."
640
667
  },
641
668
  "anthropic/claude-3.7-sonnet": {
642
- "description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic bis heute und das erste hybride Inferenzmodell auf dem Markt. Claude 3.7 Sonnet kann nahezu sofortige Antworten oder verlängerte, schrittweise Überlegungen erzeugen, wobei die Benutzer diesen Prozess klar nachvollziehen können. Sonnet ist besonders gut in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und Agentenaufgaben."
669
+ "description": "Claude 3.7 Sonnet ist das erste hybride Inferenzmodell und das intelligenteste Modell von Anthropic bisher. Es bietet modernste Leistung bei Codierung, Inhaltserstellung, Datenanalyse und Planungsaufgaben und baut auf den Software-Engineering- und Computerfähigkeiten seines Vorgängers Claude 3.5 Sonnet auf."
643
670
  },
644
671
  "anthropic/claude-opus-4": {
645
- "description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es zeichnet sich durch herausragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
672
+ "description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic und das weltweit beste Codierungsmodell mit Spitzenwerten bei SWE-bench (72,5 %) und Terminal-bench (43,2 %). Es bietet anhaltende Leistung für langfristige Aufgaben mit tausenden Schritten und kann stundenlang ununterbrochen arbeiten – was die Fähigkeiten von KI-Agenten erheblich erweitert."
673
+ },
674
+ "anthropic/claude-opus-4.1": {
675
+ "description": "Claude Opus 4.1 ist ein Plug-and-Play-Ersatz für Opus 4 und bietet herausragende Leistung und Präzision für praktische Codierungs- und Agentenaufgaben. Opus 4.1 hebt die modernste Codierungsleistung auf 74,5 % bei SWE-bench Verified und behandelt komplexe mehrstufige Probleme mit höherer Genauigkeit und Detailgenauigkeit."
646
676
  },
647
677
  "anthropic/claude-sonnet-4": {
648
- "description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder verlängerte schrittweise Überlegungen erzeugen, die für den Nutzer klar nachvollziehbar sind. API-Nutzer können zudem die Denkzeit des Modells präzise steuern."
678
+ "description": "Claude Sonnet 4 baut auf den branchenführenden Fähigkeiten von Sonnet 3.7 auf und zeigt herausragende Codierungsleistung mit einem Spitzenwert von 72,7 % bei SWE-bench. Das Modell bietet eine ausgewogene Kombination aus Leistung und Effizienz, geeignet für interne und externe Anwendungsfälle, und ermöglicht durch verbesserte Steuerbarkeit eine größere Kontrolle über die Ergebnisse."
649
679
  },
650
680
  "ascend-tribe/pangu-pro-moe": {
651
681
  "description": "Pangu-Pro-MoE 72B-A16B ist ein spärlich besetztes großes Sprachmodell mit 72 Milliarden Parametern und 16 Milliarden aktivierten Parametern. Es basiert auf der gruppierten Mixture-of-Experts-Architektur (MoGE), bei der Experten in Gruppen eingeteilt werden und Tokens innerhalb jeder Gruppe eine gleiche Anzahl von Experten aktivieren, um eine ausgewogene Expertenauslastung zu gewährleisten. Dies verbessert die Effizienz der Modellausführung auf der Ascend-Plattform erheblich."
@@ -797,6 +827,18 @@
797
827
  "cohere/Cohere-command-r-plus": {
798
828
  "description": "Command R+ ist ein hochmodernes, für RAG optimiertes Modell, das für unternehmensweite Arbeitslasten ausgelegt ist."
799
829
  },
830
+ "cohere/command-a": {
831
+ "description": "Command A ist das leistungsstärkste Modell von Cohere mit hervorragender Leistung bei Werkzeugnutzung, Agenten, Retrieval-unterstützter Generierung (RAG) und mehrsprachigen Anwendungsfällen. Command A unterstützt eine Kontextlänge von 256K und läuft auf nur zwei GPUs, mit einer 150 % höheren Durchsatzrate im Vergleich zu Command R+ 08-2024."
832
+ },
833
+ "cohere/command-r": {
834
+ "description": "Command R ist ein großes Sprachmodell, optimiert für dialogbasierte Interaktionen und Aufgaben mit langem Kontext. Es gehört zur Kategorie der \"skalierbaren\" Modelle und bietet eine Balance zwischen hoher Leistung und starker Genauigkeit, sodass Unternehmen über Proof-of-Concept hinaus in die Produktion gehen können."
835
+ },
836
+ "cohere/command-r-plus": {
837
+ "description": "Command R+ ist das neueste große Sprachmodell von Cohere, optimiert für dialogbasierte Interaktionen und Aufgaben mit langem Kontext. Es zielt darauf ab, außergewöhnliche Leistung zu bieten, damit Unternehmen über Proof-of-Concept hinaus in die Produktion gehen können."
838
+ },
839
+ "cohere/embed-v4.0": {
840
+ "description": "Ein Modell, das es ermöglicht, Text, Bilder oder gemischte Inhalte zu klassifizieren oder in Einbettungen umzuwandeln."
841
+ },
800
842
  "command": {
801
843
  "description": "Ein dialogbasiertes Modell, das Anweisungen folgt und in sprachlichen Aufgaben hohe Qualität und Zuverlässigkeit bietet. Im Vergleich zu unserem grundlegenden Generierungsmodell hat es eine längere Kontextlänge."
802
844
  },
@@ -975,7 +1017,7 @@
975
1017
  "description": "DeepSeek-V3.1 ist ein großes hybrides Inferenzmodell, das 128K langen Kontext und effizienten Moduswechsel unterstützt. Es erzielt herausragende Leistung und Geschwindigkeit bei Tool-Aufrufen, Codegenerierung und komplexen Inferenzaufgaben."
976
1018
  },
977
1019
  "deepseek/deepseek-r1": {
978
- "description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
1020
+ "description": "Das DeepSeek R1 Modell wurde in einer kleinen Version aktualisiert, aktuell DeepSeek-R1-0528. Das neueste Update verbessert die Inferenztiefe und -fähigkeit erheblich durch erhöhte Rechenressourcen und nachträgliche algorithmische Optimierungen. Das Modell zeigt hervorragende Leistungen in Mathematik, Programmierung und allgemeiner Logik und nähert sich führenden Modellen wie O3 und Gemini 2.5 Pro an."
979
1021
  },
980
1022
  "deepseek/deepseek-r1-0528": {
981
1023
  "description": "DeepSeek-R1 verbessert die Modellschlussfolgerungsfähigkeit erheblich, selbst bei sehr begrenzten annotierten Daten. Vor der Ausgabe der endgültigen Antwort generiert das Modell eine Denkprozesskette, um die Genauigkeit der Antwort zu erhöhen."
@@ -984,7 +1026,7 @@
984
1026
  "description": "DeepSeek-R1 verbessert die Modellschlussfolgerungsfähigkeit erheblich, selbst bei sehr begrenzten annotierten Daten. Vor der Ausgabe der endgültigen Antwort generiert das Modell eine Denkprozesskette, um die Genauigkeit der Antwort zu erhöhen."
985
1027
  },
986
1028
  "deepseek/deepseek-r1-distill-llama-70b": {
987
- "description": "DeepSeek R1 Distill Llama 70B ist ein großes Sprachmodell, das auf Llama3.3 70B basiert und durch Feinabstimmung mit den Ausgaben von DeepSeek R1 eine wettbewerbsfähige Leistung erreicht, die mit großen, fortschrittlichen Modellen vergleichbar ist."
1029
+ "description": "DeepSeek-R1-Distill-Llama-70B ist eine destillierte, effizientere Variante des 70B Llama Modells. Es behält starke Leistung bei Textgenerierungsaufgaben bei und reduziert den Rechenaufwand für einfachere Bereitstellung und Forschung. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
988
1030
  },
989
1031
  "deepseek/deepseek-r1-distill-llama-8b": {
990
1032
  "description": "DeepSeek R1 Distill Llama 8B ist ein distilliertes großes Sprachmodell, das auf Llama-3.1-8B-Instruct basiert und durch Training mit den Ausgaben von DeepSeek R1 erstellt wurde."
@@ -1002,7 +1044,10 @@
1002
1044
  "description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
1003
1045
  },
1004
1046
  "deepseek/deepseek-v3": {
1005
- "description": "DeepSeek-V3 hat einen bedeutenden Durchbruch in der Inferenzgeschwindigkeit im Vergleich zu früheren Modellen erzielt. Es belegt den ersten Platz unter den Open-Source-Modellen und kann mit den weltweit fortschrittlichsten proprietären Modellen konkurrieren. DeepSeek-V3 verwendet die Multi-Head-Latent-Attention (MLA) und die DeepSeekMoE-Architektur, die in DeepSeek-V2 umfassend validiert wurden. Darüber hinaus hat DeepSeek-V3 eine unterstützende verlustfreie Strategie für die Lastenverteilung eingeführt und mehrere Zielvorgaben für das Training von Mehrfachvorhersagen festgelegt, um eine stärkere Leistung zu erzielen."
1047
+ "description": "Schnelles, universelles großes Sprachmodell mit verbesserter Inferenzfähigkeit."
1048
+ },
1049
+ "deepseek/deepseek-v3.1-base": {
1050
+ "description": "DeepSeek V3.1 Base ist eine verbesserte Version des DeepSeek V3 Modells."
1006
1051
  },
1007
1052
  "deepseek/deepseek-v3/community": {
1008
1053
  "description": "DeepSeek-V3 hat einen bedeutenden Durchbruch in der Inferenzgeschwindigkeit im Vergleich zu früheren Modellen erzielt. Es belegt den ersten Platz unter den Open-Source-Modellen und kann mit den weltweit fortschrittlichsten proprietären Modellen konkurrieren. DeepSeek-V3 verwendet die Multi-Head-Latent-Attention (MLA) und die DeepSeekMoE-Architektur, die in DeepSeek-V2 umfassend validiert wurden. Darüber hinaus hat DeepSeek-V3 eine unterstützende verlustfreie Strategie für die Lastenverteilung eingeführt und mehrere Zielvorgaben für das Training von Mehrfachvorhersagen festgelegt, um eine stärkere Leistung zu erzielen."
@@ -1430,18 +1475,27 @@
1430
1475
  "glm-zero-preview": {
1431
1476
  "description": "GLM-Zero-Preview verfügt über starke Fähigkeiten zur komplexen Schlussfolgerung und zeigt hervorragende Leistungen in den Bereichen logisches Denken, Mathematik und Programmierung."
1432
1477
  },
1478
+ "google/gemini-2.0-flash": {
1479
+ "description": "Gemini 2.0 Flash bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
1480
+ },
1433
1481
  "google/gemini-2.0-flash-001": {
1434
1482
  "description": "Gemini 2.0 Flash bietet nächste Generation Funktionen und Verbesserungen, einschließlich außergewöhnlicher Geschwindigkeit, nativer Werkzeugnutzung, multimodaler Generierung und einem Kontextfenster von 1M Tokens."
1435
1483
  },
1436
1484
  "google/gemini-2.0-flash-exp:free": {
1437
1485
  "description": "Gemini 2.0 Flash Experimental ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu früheren Versionen eine gewisse Qualitätsverbesserung aufweist, insbesondere in Bezug auf Weltwissen, Code und langen Kontext."
1438
1486
  },
1487
+ "google/gemini-2.0-flash-lite": {
1488
+ "description": "Gemini 2.0 Flash Lite bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
1489
+ },
1439
1490
  "google/gemini-2.5-flash": {
1440
- "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, speziell entwickelt für anspruchsvolle Aufgaben in den Bereichen logisches Denken, Programmierung, Mathematik und Wissenschaft. Es verfügt über eingebaute \"Denkfähigkeiten\", die es ermöglichen, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell gibt es in zwei Varianten: mit und ohne Denkfähigkeit. Die Preisgestaltung für die Ausgabe variiert erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, vermeidet das Modell ausdrücklich die Erzeugung von Denk-Token.\n\nUm die Denkfähigkeit zu nutzen und Denk-Token zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Kosten für die Denk-Ausgabe führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"Maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1491
+ "description": "Gemini 2.5 Flash ist ein Denkmodell mit hervorragenden umfassenden Fähigkeiten. Es ist auf ein ausgewogenes Verhältnis von Preis und Leistung ausgelegt und unterstützt multimodale Eingaben sowie ein Kontextfenster von 1 Million Tokens."
1441
1492
  },
1442
1493
  "google/gemini-2.5-flash-image-preview": {
1443
1494
  "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1444
1495
  },
1496
+ "google/gemini-2.5-flash-lite": {
1497
+ "description": "Gemini 2.5 Flash-Lite ist ein ausgewogenes, latenzarmes Modell mit konfigurierbarem Denkbudget und Werkzeuganbindung (z. B. Google Search Grounding und Codeausführung). Es unterstützt multimodale Eingaben und bietet ein Kontextfenster von 1 Million Tokens."
1498
+ },
1445
1499
  "google/gemini-2.5-flash-preview": {
1446
1500
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1447
1501
  },
@@ -1449,11 +1503,14 @@
1449
1503
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1450
1504
  },
1451
1505
  "google/gemini-2.5-pro": {
1452
- "description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
1506
+ "description": "Gemini 2.5 Pro ist unser fortschrittlichstes Inferenz-Gemini-Modell, das komplexe Probleme lösen kann. Es verfügt über ein Kontextfenster von 2 Millionen Tokens und unterstützt multimodale Eingaben, darunter Text, Bilder, Audio, Video und PDF-Dokumente."
1453
1507
  },
1454
1508
  "google/gemini-2.5-pro-preview": {
1455
1509
  "description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
1456
1510
  },
1511
+ "google/gemini-embedding-001": {
1512
+ "description": "Modernstes Einbettungsmodell mit hervorragender Leistung bei englischen, mehrsprachigen und Code-Aufgaben."
1513
+ },
1457
1514
  "google/gemini-flash-1.5": {
1458
1515
  "description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind."
1459
1516
  },
@@ -1490,6 +1547,12 @@
1490
1547
  "google/gemma-3-27b-it": {
1491
1548
  "description": "Gemma 3 27B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Bezug auf Effizienz und Leistung setzt."
1492
1549
  },
1550
+ "google/text-embedding-005": {
1551
+ "description": "Englisch-fokussiertes Texteingebettetes Modell, optimiert für Code- und englischsprachige Aufgaben."
1552
+ },
1553
+ "google/text-multilingual-embedding-002": {
1554
+ "description": "Mehrsprachiges Texteingebettetes Modell, optimiert für sprachübergreifende Aufgaben und unterstützt mehrere Sprachen."
1555
+ },
1493
1556
  "gpt-3.5-turbo": {
1494
1557
  "description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125."
1495
1558
  },
@@ -1781,6 +1844,9 @@
1781
1844
  "imagen-4.0-ultra-generate-preview-06-06": {
1782
1845
  "description": "Imagen 4. Generation Text-zu-Bild Modellserie Ultra-Version"
1783
1846
  },
1847
+ "inception/mercury-coder-small": {
1848
+ "description": "Mercury Coder Small ist ideal für Codegenerierung, Debugging und Refactoring-Aufgaben mit minimaler Latenz."
1849
+ },
1784
1850
  "inclusionAI/Ling-mini-2.0": {
1785
1851
  "description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes großes Sprachmodell basierend auf der MoE-Architektur. Es verfügt über 16 Milliarden Gesamtparameter, aktiviert jedoch pro Token nur 1,4 Milliarden (nicht-Embedding 789 Millionen), was eine extrem hohe Generierungsgeschwindigkeit ermöglicht. Dank des effizienten MoE-Designs und umfangreicher, qualitativ hochwertiger Trainingsdaten zeigt Ling-mini-2.0 trotz nur 1,4 Milliarden aktivierter Parameter Spitzenleistungen bei nachgelagerten Aufgaben, die mit dichten LLMs unter 10 Milliarden und größeren MoE-Modellen vergleichbar sind."
1786
1852
  },
@@ -2057,30 +2123,63 @@
2057
2123
  "meta/Meta-Llama-3.1-8B-Instruct": {
2058
2124
  "description": "Llama 3.1 ist ein instruktionsoptimiertes Textmodell, das für mehrsprachige Dialoganwendungen optimiert wurde und in vielen verfügbaren offenen und geschlossenen Chatmodellen bei gängigen Branchenbenchmarks hervorragende Leistungen zeigt."
2059
2125
  },
2126
+ "meta/llama-3-70b": {
2127
+ "description": "Ein von Meta sorgfältig für die Befolgung von Anweisungen abgestimmtes Open-Source-Modell mit 70 Milliarden Parametern. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
2128
+ },
2129
+ "meta/llama-3-8b": {
2130
+ "description": "Ein von Meta sorgfältig für die Befolgung von Anweisungen abgestimmtes Open-Source-Modell mit 8 Milliarden Parametern. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
2131
+ },
2060
2132
  "meta/llama-3.1-405b-instruct": {
2061
2133
  "description": "Fortgeschrittenes LLM, das die Generierung synthetischer Daten, Wissensverdichtung und Schlussfolgerungen unterstützt, geeignet für Chatbots, Programmierung und spezifische Aufgaben."
2062
2134
  },
2135
+ "meta/llama-3.1-70b": {
2136
+ "description": "Aktualisierte Version von Meta Llama 3 70B Instruct mit erweitertem 128K Kontextfenster, Mehrsprachigkeit und verbesserter Inferenzfähigkeit."
2137
+ },
2063
2138
  "meta/llama-3.1-70b-instruct": {
2064
2139
  "description": "Ermöglicht komplexe Gespräche mit hervorragendem Kontextverständnis, Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
2065
2140
  },
2141
+ "meta/llama-3.1-8b": {
2142
+ "description": "Llama 3.1 8B unterstützt ein 128K Kontextfenster und ist ideal für Echtzeit-Dialogschnittstellen und Datenanalysen, während es im Vergleich zu größeren Modellen erhebliche Kosteneinsparungen bietet. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
2143
+ },
2066
2144
  "meta/llama-3.1-8b-instruct": {
2067
2145
  "description": "Fortschrittliches, hochmodernes Modell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
2068
2146
  },
2147
+ "meta/llama-3.2-11b": {
2148
+ "description": "Anweisungsabgestimmtes Bildinferenz-Generierungsmodell (Text + Bildeingabe / Textausgabe), optimiert für visuelle Erkennung, Bildinferenz, Bildunterschriftenerstellung und allgemeine Fragen zu Bildern."
2149
+ },
2069
2150
  "meta/llama-3.2-11b-vision-instruct": {
2070
2151
  "description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
2071
2152
  },
2153
+ "meta/llama-3.2-1b": {
2154
+ "description": "Reines Textmodell, unterstützt On-Device-Anwendungsfälle wie mehrsprachige lokale Wissenssuche, Zusammenfassung und Umschreibung."
2155
+ },
2072
2156
  "meta/llama-3.2-1b-instruct": {
2073
2157
  "description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
2074
2158
  },
2159
+ "meta/llama-3.2-3b": {
2160
+ "description": "Reines Textmodell, sorgfältig abgestimmt zur Unterstützung von On-Device-Anwendungsfällen wie mehrsprachige lokale Wissenssuche, Zusammenfassung und Umschreibung."
2161
+ },
2075
2162
  "meta/llama-3.2-3b-instruct": {
2076
2163
  "description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
2077
2164
  },
2165
+ "meta/llama-3.2-90b": {
2166
+ "description": "Anweisungsabgestimmtes Bildinferenz-Generierungsmodell (Text + Bildeingabe / Textausgabe), optimiert für visuelle Erkennung, Bildinferenz, Bildunterschriftenerstellung und allgemeine Fragen zu Bildern."
2167
+ },
2078
2168
  "meta/llama-3.2-90b-vision-instruct": {
2079
2169
  "description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
2080
2170
  },
2171
+ "meta/llama-3.3-70b": {
2172
+ "description": "Perfekte Kombination aus Leistung und Effizienz. Das Modell unterstützt leistungsstarke Dialog-KI, ist für Inhaltserstellung, Unternehmensanwendungen und Forschung konzipiert und bietet fortschrittliche Sprachverständnisfähigkeiten, einschließlich Textzusammenfassung, Klassifikation, Sentimentanalyse und Codegenerierung."
2173
+ },
2081
2174
  "meta/llama-3.3-70b-instruct": {
2082
2175
  "description": "Fortschrittliches LLM, das auf Schlussfolgern, Mathematik, Allgemeinwissen und Funktionsaufrufen spezialisiert ist."
2083
2176
  },
2177
+ "meta/llama-4-maverick": {
2178
+ "description": "Die Llama 4 Modellreihe sind native multimodale KI-Modelle, die Text- und multimodale Erlebnisse unterstützen. Diese Modelle nutzen eine gemischte Expertenarchitektur und bieten branchenführende Leistung bei Text- und Bildverständnis. Llama 4 Maverick ist ein 17 Milliarden Parameter Modell mit 128 Experten. Bereitgestellt von DeepInfra."
2179
+ },
2180
+ "meta/llama-4-scout": {
2181
+ "description": "Die Llama 4 Modellreihe sind native multimodale KI-Modelle, die Text- und multimodale Erlebnisse unterstützen. Diese Modelle nutzen eine gemischte Expertenarchitektur und bieten branchenführende Leistung bei Text- und Bildverständnis. Llama 4 Scout ist ein 17 Milliarden Parameter Modell mit 16 Experten. Bereitgestellt von DeepInfra."
2182
+ },
2084
2183
  "microsoft/Phi-3-medium-128k-instruct": {
2085
2184
  "description": "Dasselbe Phi-3-medium-Modell, jedoch mit größerem Kontextfenster, geeignet für RAG oder wenige Eingabeaufforderungen."
2086
2185
  },
@@ -2156,6 +2255,48 @@
2156
2255
  "mistral-small-latest": {
2157
2256
  "description": "Mistral Small ist eine kosteneffiziente, schnelle und zuverlässige Option für Anwendungsfälle wie Übersetzung, Zusammenfassung und Sentimentanalyse."
2158
2257
  },
2258
+ "mistral/codestral": {
2259
+ "description": "Mistral Codestral 25.01 ist ein hochmodernes Codierungsmodell, optimiert für latenzarme und hochfrequente Anwendungsfälle. Es beherrscht über 80 Programmiersprachen und zeigt hervorragende Leistungen bei Aufgaben wie Fill-in-the-Middle (FIM), Codekorrektur und Testgenerierung."
2260
+ },
2261
+ "mistral/codestral-embed": {
2262
+ "description": "Ein Code-Einbettungsmodell, das in Code-Datenbanken und Repositories eingebettet werden kann, um Codierungsassistenten zu unterstützen."
2263
+ },
2264
+ "mistral/devstral-small": {
2265
+ "description": "Devstral ist ein agentenfähiges großes Sprachmodell für Software-Engineering-Aufgaben und somit eine ausgezeichnete Wahl für Software-Engineering-Agenten."
2266
+ },
2267
+ "mistral/magistral-medium": {
2268
+ "description": "Komplexes Denken, unterstützt durch tiefes Verständnis mit nachvollziehbarer und überprüfbarer transparenter Argumentation. Das Modell behält auch bei Sprachwechseln während der Aufgabe eine hohe Genauigkeit in vielen Sprachen bei."
2269
+ },
2270
+ "mistral/magistral-small": {
2271
+ "description": "Komplexes Denken, unterstützt durch tiefes Verständnis mit nachvollziehbarer und überprüfbarer transparenter Argumentation. Das Modell behält auch bei Sprachwechseln während der Aufgabe eine hohe Genauigkeit in vielen Sprachen bei."
2272
+ },
2273
+ "mistral/ministral-3b": {
2274
+ "description": "Ein kompaktes, effizientes Modell für On-Device-Aufgaben wie intelligente Assistenten und lokale Analysen mit niedriger Latenz."
2275
+ },
2276
+ "mistral/ministral-8b": {
2277
+ "description": "Ein leistungsfähigeres Modell mit schnellerer und speichereffizienter Inferenz, ideal für komplexe Workflows und anspruchsvolle Edge-Anwendungen."
2278
+ },
2279
+ "mistral/mistral-embed": {
2280
+ "description": "Universelles Texteingebettetes Modell für semantische Suche, Ähnlichkeit, Clustering und RAG-Workflows."
2281
+ },
2282
+ "mistral/mistral-large": {
2283
+ "description": "Mistral Large ist ideal für komplexe Aufgaben, die große Inferenzkapazitäten oder hohe Spezialisierung erfordern – wie synthetische Textgenerierung, Codegenerierung, RAG oder Agenten."
2284
+ },
2285
+ "mistral/mistral-saba-24b": {
2286
+ "description": "Mistral Saba 24B ist ein 24 Milliarden Parameter Open-Source-Modell von Mistral.ai. Saba ist ein spezialisiertes Modell, das für herausragende Leistungen in Arabisch, Persisch, Urdu, Hebräisch und indischen Sprachen trainiert wurde. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
2287
+ },
2288
+ "mistral/mistral-small": {
2289
+ "description": "Mistral Small ist ideal für einfache Aufgaben, die in großen Mengen ausgeführt werden können – wie Klassifikation, Kundensupport oder Textgenerierung. Es bietet hervorragende Leistung zu einem erschwinglichen Preis."
2290
+ },
2291
+ "mistral/mixtral-8x22b-instruct": {
2292
+ "description": "8x22b Instruct Modell. 8x22b ist ein von Mistral bereitgestelltes gemischtes Experten-Open-Source-Modell."
2293
+ },
2294
+ "mistral/pixtral-12b": {
2295
+ "description": "Ein 12 Milliarden Parameter Modell mit Bildverständnisfähigkeiten sowie Text."
2296
+ },
2297
+ "mistral/pixtral-large": {
2298
+ "description": "Pixtral Large ist das zweite Modell unserer multimodalen Familie und demonstriert Spitzenleistungen im Bildverständnis. Insbesondere kann das Modell Dokumente, Diagramme und natürliche Bilder verstehen und behält dabei die führenden Textverständnisfähigkeiten von Mistral Large 2 bei."
2299
+ },
2159
2300
  "mistralai/Mistral-7B-Instruct-v0.1": {
2160
2301
  "description": "Mistral (7B) Instruct ist bekannt für seine hohe Leistung und eignet sich für eine Vielzahl von Sprachaufgaben."
2161
2302
  },
@@ -2222,12 +2363,21 @@
2222
2363
  "moonshotai/Kimi-K2-Instruct-0905": {
2223
2364
  "description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
2224
2365
  },
2366
+ "moonshotai/kimi-k2": {
2367
+ "description": "Kimi K2 ist ein von Moonshot AI entwickeltes großes gemischtes Experten (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf. Es ist auf Agentenfähigkeiten optimiert, einschließlich fortgeschrittener Werkzeugnutzung, Inferenz und Code-Synthese."
2368
+ },
2225
2369
  "moonshotai/kimi-k2-0905": {
2226
2370
  "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2227
2371
  },
2228
2372
  "moonshotai/kimi-k2-instruct-0905": {
2229
2373
  "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2230
2374
  },
2375
+ "morph/morph-v3-fast": {
2376
+ "description": "Morph bietet ein spezialisiertes KI-Modell, das von führenden Modellen wie Claude oder GPT-4o vorgeschlagene Codeänderungen schnell auf Ihre bestehenden Code-Dateien anwendet – mit über 4500 Tokens pro Sekunde. Es fungiert als letzter Schritt im KI-Codierungsworkflow und unterstützt 16k Eingabe- und 16k Ausgabe-Tokens."
2377
+ },
2378
+ "morph/morph-v3-large": {
2379
+ "description": "Morph bietet ein spezialisiertes KI-Modell, das von führenden Modellen wie Claude oder GPT-4o vorgeschlagene Codeänderungen schnell auf Ihre bestehenden Code-Dateien anwendet – mit über 2500 Tokens pro Sekunde. Es fungiert als letzter Schritt im KI-Codierungsworkflow und unterstützt 16k Eingabe- und 16k Ausgabe-Tokens."
2380
+ },
2231
2381
  "nousresearch/hermes-2-pro-llama-3-8b": {
2232
2382
  "description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
2233
2383
  },
@@ -2294,29 +2444,47 @@
2294
2444
  "open-mixtral-8x7b": {
2295
2445
  "description": "Mixtral 8x7B ist ein spärliches Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen und sich für die Verarbeitung mehrsprachiger und Codegenerierungsaufgaben eignet."
2296
2446
  },
2447
+ "openai/gpt-3.5-turbo": {
2448
+ "description": "OpenAIs leistungsfähigstes und kosteneffizientestes Modell der GPT-3.5-Reihe, optimiert für Chat-Anwendungen, aber auch gut für traditionelle Completion-Aufgaben geeignet."
2449
+ },
2450
+ "openai/gpt-3.5-turbo-instruct": {
2451
+ "description": "Fähigkeiten ähnlich den Modellen der GPT-3-Ära. Kompatibel mit traditionellen Completion-Endpunkten, nicht mit Chat-Completion-Endpunkten."
2452
+ },
2453
+ "openai/gpt-4-turbo": {
2454
+ "description": "OpenAIs gpt-4-turbo verfügt über umfangreiches Allgemeinwissen und Fachkenntnisse, kann komplexen natürlichen Sprachbefehlen folgen und schwierige Probleme präzise lösen. Wissensstand bis April 2023, Kontextfenster von 128.000 Tokens."
2455
+ },
2297
2456
  "openai/gpt-4.1": {
2298
- "description": "GPT-4.1 ist unser Flaggschiff-Modell für komplexe Aufgaben. Es eignet sich hervorragend zur Lösung von Problemen über verschiedene Fachgebiete hinweg."
2457
+ "description": "GPT 4.1 ist das Flaggschiffmodell von OpenAI, geeignet für komplexe Aufgaben. Es ist hervorragend für interdisziplinäre Problemlösungen."
2299
2458
  },
2300
2459
  "openai/gpt-4.1-mini": {
2301
- "description": "GPT-4.1 mini bietet ein Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten, was es zu einem attraktiven Modell für viele Anwendungsfälle macht."
2460
+ "description": "GPT 4.1 mini bietet eine ausgewogene Kombination aus Intelligenz, Geschwindigkeit und Kosten und ist damit für viele Anwendungsfälle attraktiv."
2302
2461
  },
2303
2462
  "openai/gpt-4.1-nano": {
2304
- "description": "GPT-4.1 nano ist das schnellste und kosteneffektivste Modell der GPT-4.1-Reihe."
2463
+ "description": "GPT-4.1 nano ist das schnellste und kosteneffizienteste Modell der GPT 4.1 Reihe."
2305
2464
  },
2306
2465
  "openai/gpt-4o": {
2307
- "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technischem Support."
2466
+ "description": "GPT-4o von OpenAI verfügt über umfangreiches Allgemeinwissen und Fachkenntnisse, kann komplexen natürlichen Sprachbefehlen folgen und schwierige Probleme präzise lösen. Es bietet die Leistung von GPT-4 Turbo mit schnellerem und kostengünstigerem API-Zugriff."
2308
2467
  },
2309
2468
  "openai/gpt-4o-mini": {
2310
- "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
2469
+ "description": "GPT-4o mini von OpenAI ist ihr fortschrittlichstes und kosteneffizientestes kleines Modell. Es ist multimodal (akzeptiert Text- oder Bildeingaben und gibt Text aus) und intelligenter als gpt-3.5-turbo, bei gleicher Geschwindigkeit."
2470
+ },
2471
+ "openai/gpt-5": {
2472
+ "description": "GPT-5 ist OpenAIs Flaggschiff-Sprachmodell mit herausragender Leistung bei komplexer Inferenz, umfangreichem Weltwissen, codeintensiven und mehrstufigen Agentenaufgaben."
2473
+ },
2474
+ "openai/gpt-5-mini": {
2475
+ "description": "GPT-5 mini ist ein kostenoptimiertes Modell mit hervorragender Leistung bei Inferenz- und Chat-Aufgaben. Es bietet die beste Balance zwischen Geschwindigkeit, Kosten und Fähigkeiten."
2476
+ },
2477
+ "openai/gpt-5-nano": {
2478
+ "description": "GPT-5 nano ist ein Modell mit hohem Durchsatz, das bei einfachen Anweisungen oder Klassifizierungsaufgaben hervorragende Leistungen zeigt."
2311
2479
  },
2312
2480
  "openai/gpt-oss-120b": {
2313
- "description": "OpenAI GPT-OSS 120B ist ein Spitzen-Sprachmodell mit 120 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
2481
+ "description": "Extrem leistungsfähiges universelles großes Sprachmodell mit starker, kontrollierbarer Inferenzfähigkeit."
2314
2482
  },
2315
2483
  "openai/gpt-oss-20b": {
2316
- "description": "OpenAI GPT-OSS 20B ist ein Spitzen-Sprachmodell mit 20 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
2484
+ "description": "Ein kompaktes, Open-Source-Gewichtsmodell, optimiert für niedrige Latenz und ressourcenbeschränkte Umgebungen, einschließlich lokaler und Edge-Bereitstellungen."
2317
2485
  },
2318
2486
  "openai/o1": {
2319
- "description": "o1 ist OpenAIs neues Inferenzmodell, das Bild- und Texteingaben unterstützt und Text ausgibt. Es eignet sich für komplexe Aufgaben, die umfangreiches Allgemeinwissen erfordern. Das Modell verfügt über einen Kontext von 200K und einen Wissensstand bis Oktober 2023."
2487
+ "description": "OpenAIs o1 ist ein Flaggschiff-Inferenzmodell, entwickelt für komplexe Probleme, die tiefes Nachdenken erfordern. Es bietet starke Inferenzfähigkeiten und höhere Genauigkeit bei komplexen mehrstufigen Aufgaben."
2320
2488
  },
2321
2489
  "openai/o1-mini": {
2322
2490
  "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
@@ -2325,23 +2493,44 @@
2325
2493
  "description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
2326
2494
  },
2327
2495
  "openai/o3": {
2328
- "description": "o3 ist ein leistungsstarkes Allround-Modell, das in mehreren Bereichen hervorragende Leistungen zeigt. Es setzt neue Maßstäbe für mathematische, wissenschaftliche, programmiertechnische und visuelle Denkaufgaben. Es ist auch versiert in technischer Schreibweise und der Befolgung von Anweisungen. Benutzer können es nutzen, um Texte, Code und Bilder zu analysieren und komplexe Probleme mit mehreren Schritten zu lösen."
2496
+ "description": "OpenAIs o3 ist das leistungsstärkste Inferenzmodell mit neuen Spitzenleistungen in Codierung, Mathematik, Wissenschaft und visueller Wahrnehmung. Es ist besonders gut bei komplexen Anfragen, die multidisziplinäre Analyse erfordern, und hat besondere Stärken bei der Analyse von Bildern, Diagrammen und Grafiken."
2329
2497
  },
2330
2498
  "openai/o3-mini": {
2331
- "description": "o3-mini bietet hohe Intelligenz bei den gleichen Kosten- und Verzögerungszielen wie o1-mini."
2499
+ "description": "o3-mini ist OpenAIs neuestes kleines Inferenzmodell, das bei gleichen Kosten- und Latenzzielen wie o1-mini hohe Intelligenz bietet."
2332
2500
  },
2333
2501
  "openai/o3-mini-high": {
2334
2502
  "description": "o3-mini high ist eine hochintelligente Version mit dem gleichen Kosten- und Verzögerungsziel wie o1-mini."
2335
2503
  },
2336
2504
  "openai/o4-mini": {
2337
- "description": "o4-mini ist für schnelle und effektive Inferenz optimiert und zeigt in Programmier- und visuellen Aufgaben eine hohe Effizienz und Leistung."
2505
+ "description": "OpenAIs o4-mini bietet schnelle, kosteneffiziente Inferenz mit hervorragender Leistung für seine Größe, insbesondere bei Mathematik (beste Leistung im AIME-Benchmark), Codierung und visuellen Aufgaben."
2338
2506
  },
2339
2507
  "openai/o4-mini-high": {
2340
2508
  "description": "o4-mini Hochleistungsmodell, optimiert für schnelle und effektive Inferenz, zeigt in Programmier- und visuellen Aufgaben eine hohe Effizienz und Leistung."
2341
2509
  },
2510
+ "openai/text-embedding-3-large": {
2511
+ "description": "OpenAIs leistungsfähigstes Einbettungsmodell, geeignet für englische und nicht-englische Aufgaben."
2512
+ },
2513
+ "openai/text-embedding-3-small": {
2514
+ "description": "OpenAIs verbesserte, leistungsstärkere Version des ada-Einbettungsmodells."
2515
+ },
2516
+ "openai/text-embedding-ada-002": {
2517
+ "description": "OpenAIs traditionelles Texteingebettetes Modell."
2518
+ },
2342
2519
  "openrouter/auto": {
2343
2520
  "description": "Je nach Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstregulierend) oder GPT-4o gesendet."
2344
2521
  },
2522
+ "perplexity/sonar": {
2523
+ "description": "Perplexitys leichtgewichtiges Produkt mit Suchanbindung, schneller und günstiger als Sonar Pro."
2524
+ },
2525
+ "perplexity/sonar-pro": {
2526
+ "description": "Perplexitys Flaggschiffprodukt mit Suchanbindung, unterstützt erweiterte Abfragen und Folgeaktionen."
2527
+ },
2528
+ "perplexity/sonar-reasoning": {
2529
+ "description": "Ein auf Inferenz fokussiertes Modell, das Denkprozesse (CoT) in Antworten ausgibt und detaillierte Erklärungen mit Suchanbindung bietet."
2530
+ },
2531
+ "perplexity/sonar-reasoning-pro": {
2532
+ "description": "Ein fortgeschrittenes, auf Inferenz fokussiertes Modell, das Denkprozesse (CoT) in Antworten ausgibt und umfassende Erklärungen mit verbesserter Suchfähigkeit und mehreren Suchanfragen pro Anfrage bietet."
2533
+ },
2345
2534
  "phi3": {
2346
2535
  "description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist."
2347
2536
  },
@@ -2804,6 +2993,12 @@
2804
2993
  "v0-1.5-md": {
2805
2994
  "description": "Das Modell v0-1.5-md ist für alltägliche Aufgaben und die Generierung von Benutzeroberflächen (UI) geeignet"
2806
2995
  },
2996
+ "vercel/v0-1.0-md": {
2997
+ "description": "Zugriff auf das Modell hinter v0 zur Generierung, Reparatur und Optimierung moderner Webanwendungen mit frameworkspezifischer Inferenz und aktuellem Wissen."
2998
+ },
2999
+ "vercel/v0-1.5-md": {
3000
+ "description": "Zugriff auf das Modell hinter v0 zur Generierung, Reparatur und Optimierung moderner Webanwendungen mit frameworkspezifischer Inferenz und aktuellem Wissen."
3001
+ },
2807
3002
  "wan2.2-t2i-flash": {
2808
3003
  "description": "Wanxiang 2.2 Turbo-Version, das aktuell neueste Modell. Es bietet umfassende Verbesserungen in Kreativität, Stabilität und realistischer Textur, erzeugt schnell und bietet ein hervorragendes Preis-Leistungs-Verhältnis."
2809
3004
  },
@@ -2834,6 +3029,27 @@
2834
3029
  "x1": {
2835
3030
  "description": "Das Spark X1 Modell wird weiter verbessert und erreicht in allgemeinen Aufgaben wie Schlussfolgerungen, Textgenerierung und Sprachverständnis Ergebnisse, die mit OpenAI o1 und DeepSeek R1 vergleichbar sind, basierend auf der bereits führenden Leistung in mathematischen Aufgaben."
2836
3031
  },
3032
+ "xai/grok-2": {
3033
+ "description": "Grok 2 ist ein fortschrittliches Sprachmodell mit modernsten Inferenzfähigkeiten. Es bietet fortschrittliche Fähigkeiten in Chat, Codierung und Inferenz und übertrifft Claude 3.5 Sonnet und GPT-4-Turbo in der LMSYS-Rangliste."
3034
+ },
3035
+ "xai/grok-2-vision": {
3036
+ "description": "Das visuelle Modell Grok 2 zeigt hervorragende Leistungen bei visuellen Aufgaben und bietet modernste Leistung bei visueller mathematischer Inferenz (MathVista) und dokumentenbasierter Fragebeantwortung (DocVQA). Es kann verschiedene visuelle Informationen verarbeiten, darunter Dokumente, Diagramme, Grafiken, Screenshots und Fotos."
3037
+ },
3038
+ "xai/grok-3": {
3039
+ "description": "xAIs Flaggschiffmodell mit hervorragender Leistung bei Unternehmensanwendungen wie Datenerfassung, Codierung und Textzusammenfassung. Es verfügt über tiefes Fachwissen in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft."
3040
+ },
3041
+ "xai/grok-3-fast": {
3042
+ "description": "xAIs Flaggschiffmodell mit hervorragender Leistung bei Unternehmensanwendungen wie Datenerfassung, Codierung und Textzusammenfassung. Die schnelle Modellvariante wird auf schnellerer Infrastruktur bereitgestellt und bietet deutlich schnellere Antwortzeiten. Die erhöhte Geschwindigkeit geht mit höheren Kosten pro ausgegebenem Token einher."
3043
+ },
3044
+ "xai/grok-3-mini": {
3045
+ "description": "xAIs leichtgewichtiges Modell, das vor der Antwort nachdenkt. Ideal für einfache oder logikbasierte Aufgaben ohne tiefes Fachwissen. Der ursprüngliche Denkprozess ist zugänglich."
3046
+ },
3047
+ "xai/grok-3-mini-fast": {
3048
+ "description": "xAIs leichtgewichtiges Modell, das vor der Antwort nachdenkt. Ideal für einfache oder logikbasierte Aufgaben ohne tiefes Fachwissen. Der ursprüngliche Denkprozess ist zugänglich. Die schnelle Modellvariante wird auf schnellerer Infrastruktur bereitgestellt und bietet deutlich schnellere Antwortzeiten. Die erhöhte Geschwindigkeit geht mit höheren Kosten pro ausgegebenem Token einher."
3049
+ },
3050
+ "xai/grok-4": {
3051
+ "description": "xAIs neuestes und bestes Flaggschiffmodell mit unvergleichlicher Leistung in natürlicher Sprache, Mathematik und Inferenz – der perfekte Allrounder."
3052
+ },
2837
3053
  "yi-1.5-34b-chat": {
2838
3054
  "description": "Yi-1.5 ist eine verbesserte Version von Yi. Es wurde mit einem hochwertigen Korpus von 500B Tokens auf Yi fortlaufend vortrainiert und auf 3M diversen Feinabstimmungsbeispielen feinjustiert."
2839
3055
  },
@@ -2881,5 +3097,14 @@
2881
3097
  },
2882
3098
  "zai-org/GLM-4.5V": {
2883
3099
  "description": "GLM-4.5V ist das neueste visuell-sprachliche Modell (VLM), das von Zhipu AI veröffentlicht wurde. Das Modell basiert auf dem Flaggschiff-Textmodell GLM-4.5-Air mit insgesamt 106 Milliarden Parametern und 12 Milliarden Aktivierungsparametern und verwendet eine Mixture-of-Experts-(MoE)-Architektur. Es zielt darauf ab, bei geringeren Inferenzkosten herausragende Leistung zu erzielen. Technisch setzt es die Entwicklungslinie von GLM-4.1V-Thinking fort und führt Innovationen wie die dreidimensionale Rotations-Positionskodierung (3D-RoPE) ein, wodurch die Wahrnehmung und das Schließen über dreidimensionale Raumbeziehungen deutlich verbessert werden. Durch Optimierungen in den Phasen des Pre-Trainings, der überwachten Feinabstimmung und des Reinforcement Learnings ist das Modell in der Lage, verschiedene visuelle Inhalte wie Bilder, Videos und lange Dokumente zu verarbeiten; in 41 öffentlichen multimodalen Benchmarks erreichte es Spitzenwerte unter frei verfügbaren Modellen derselben Klasse. Zudem wurde ein \"Denkmodus\"-Schalter hinzugefügt, der es Nutzern erlaubt, flexibel zwischen schneller Reaktion und tiefgehendem Schlussfolgern zu wählen, um Effizienz und Ergebnisqualität auszubalancieren."
3100
+ },
3101
+ "zai/glm-4.5": {
3102
+ "description": "Die GLM-4.5 Modellreihe sind speziell für Agenten entwickelte Basismodelle. Das Flaggschiff GLM-4.5 integriert 355 Milliarden Gesamtparameter (32 Milliarden aktiv) und vereint Inferenz-, Codierungs- und Agentenfähigkeiten zur Lösung komplexer Anwendungsanforderungen. Als hybrides Inferenzsystem bietet es zwei Betriebsmodi."
3103
+ },
3104
+ "zai/glm-4.5-air": {
3105
+ "description": "GLM-4.5 und GLM-4.5-Air sind unsere neuesten Flaggschiffmodelle, speziell als Basismodelle für Agentenanwendungen entwickelt. Beide nutzen eine gemischte Expertenarchitektur (MoE). GLM-4.5 hat 355 Milliarden Gesamtparameter mit 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf, während GLM-4.5-Air ein vereinfachtes Design mit 106 Milliarden Gesamtparametern und 12 Milliarden aktiven Parametern verwendet."
3106
+ },
3107
+ "zai/glm-4.5v": {
3108
+ "description": "GLM-4.5V basiert auf dem GLM-4.5-Air Basismodell, übernimmt bewährte Techniken von GLM-4.1V-Thinking und skaliert effektiv mit einer leistungsstarken MoE-Architektur mit 106 Milliarden Parametern."
2884
3109
  }
2885
3110
  }
@@ -161,6 +161,9 @@
161
161
  "v0": {
162
162
  "description": "v0 ist ein Pair-Programming-Assistent, bei dem Sie Ihre Ideen einfach in natürlicher Sprache beschreiben können, und er generiert Code und Benutzeroberflächen (UI) für Ihr Projekt."
163
163
  },
164
+ "vercelaigateway": {
165
+ "description": "Vercel AI Gateway bietet eine einheitliche API zum Zugriff auf über 100 Modelle und ermöglicht die Nutzung von Modellen verschiedener Anbieter wie OpenAI, Anthropic und Google über einen einzigen Endpunkt. Unterstützt Budgeteinstellungen, Nutzungsüberwachung, Lastenausgleich und Failover."
166
+ },
164
167
  "vertexai": {
165
168
  "description": "Die Gemini-Serie von Google ist das fortschrittlichste, universelle KI-Modell, das von Google DeepMind entwickelt wurde. Es ist speziell für multimodale Anwendungen konzipiert und unterstützt das nahtlose Verständnis und die Verarbeitung von Text, Code, Bildern, Audio und Video. Es eignet sich für eine Vielzahl von Umgebungen, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen."
166
169
  },