@lobehub/chat 1.88.19 → 1.88.21

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (82) hide show
  1. package/.i18nrc.js +1 -1
  2. package/CHANGELOG.md +51 -0
  3. package/changelog/v1.json +18 -0
  4. package/locales/ar/chat.json +3 -0
  5. package/locales/ar/models.json +92 -17
  6. package/locales/ar/setting.json +0 -12
  7. package/locales/bg-BG/chat.json +3 -0
  8. package/locales/bg-BG/models.json +92 -17
  9. package/locales/bg-BG/setting.json +0 -12
  10. package/locales/de-DE/chat.json +3 -0
  11. package/locales/de-DE/models.json +92 -17
  12. package/locales/de-DE/setting.json +0 -12
  13. package/locales/en-US/chat.json +3 -0
  14. package/locales/en-US/models.json +92 -17
  15. package/locales/en-US/setting.json +0 -12
  16. package/locales/es-ES/chat.json +3 -0
  17. package/locales/es-ES/models.json +92 -17
  18. package/locales/es-ES/setting.json +0 -12
  19. package/locales/fa-IR/chat.json +3 -0
  20. package/locales/fa-IR/models.json +92 -17
  21. package/locales/fa-IR/setting.json +0 -12
  22. package/locales/fr-FR/chat.json +3 -0
  23. package/locales/fr-FR/models.json +92 -17
  24. package/locales/fr-FR/setting.json +0 -12
  25. package/locales/it-IT/chat.json +3 -0
  26. package/locales/it-IT/models.json +92 -17
  27. package/locales/it-IT/setting.json +0 -12
  28. package/locales/ja-JP/chat.json +3 -0
  29. package/locales/ja-JP/models.json +92 -17
  30. package/locales/ja-JP/setting.json +0 -12
  31. package/locales/ko-KR/chat.json +3 -0
  32. package/locales/ko-KR/models.json +92 -17
  33. package/locales/ko-KR/setting.json +0 -12
  34. package/locales/nl-NL/chat.json +3 -0
  35. package/locales/nl-NL/models.json +92 -17
  36. package/locales/nl-NL/setting.json +0 -12
  37. package/locales/pl-PL/chat.json +3 -0
  38. package/locales/pl-PL/models.json +92 -17
  39. package/locales/pl-PL/setting.json +0 -12
  40. package/locales/pt-BR/chat.json +3 -0
  41. package/locales/pt-BR/models.json +92 -17
  42. package/locales/pt-BR/setting.json +0 -12
  43. package/locales/ru-RU/chat.json +3 -0
  44. package/locales/ru-RU/models.json +92 -17
  45. package/locales/ru-RU/setting.json +0 -12
  46. package/locales/tr-TR/chat.json +3 -0
  47. package/locales/tr-TR/models.json +92 -17
  48. package/locales/tr-TR/setting.json +0 -12
  49. package/locales/vi-VN/chat.json +3 -0
  50. package/locales/vi-VN/models.json +92 -17
  51. package/locales/vi-VN/setting.json +0 -12
  52. package/locales/zh-CN/chat.json +3 -0
  53. package/locales/zh-CN/models.json +89 -14
  54. package/locales/zh-CN/setting.json +0 -12
  55. package/locales/zh-TW/chat.json +3 -0
  56. package/locales/zh-TW/models.json +92 -17
  57. package/locales/zh-TW/setting.json +0 -12
  58. package/package.json +1 -1
  59. package/src/app/[variants]/(main)/settings/common/features/Appearance/ThemeSwatches/ThemeSwatchesNeutral.tsx +4 -2
  60. package/src/app/[variants]/(main)/settings/common/features/Appearance/ThemeSwatches/ThemeSwatchesPrimary.tsx +4 -2
  61. package/src/config/aiModels/deepseek.ts +5 -3
  62. package/src/config/aiModels/groq.ts +16 -29
  63. package/src/config/aiModels/hunyuan.ts +104 -82
  64. package/src/config/aiModels/novita.ts +27 -121
  65. package/src/config/aiModels/openai.ts +19 -2
  66. package/src/config/aiModels/openrouter.ts +59 -47
  67. package/src/config/aiModels/siliconcloud.ts +73 -39
  68. package/src/config/aiModels/volcengine.ts +3 -3
  69. package/src/config/aiModels/xai.ts +2 -0
  70. package/src/features/AgentSetting/AgentMeta/index.tsx +5 -0
  71. package/src/features/AgentSetting/AgentModal/index.tsx +1 -26
  72. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
  73. package/src/features/ChatInput/ActionBar/Model/ReasoningEffortSlider.tsx +57 -0
  74. package/src/features/ModelSwitchPanel/index.tsx +10 -9
  75. package/src/features/PluginDevModal/MCPManifestForm/index.tsx +3 -1
  76. package/src/libs/model-runtime/novita/__snapshots__/index.test.ts.snap +1 -1
  77. package/src/locales/default/chat.ts +3 -0
  78. package/src/locales/default/setting.ts +0 -12
  79. package/src/services/chat.ts +5 -1
  80. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -5
  81. package/src/types/agent/chatConfig.ts +1 -0
  82. package/src/types/aiModel.ts +5 -1
@@ -341,9 +341,6 @@
341
341
  "Qwen2.5-Coder-32B-Instruct": {
342
342
  "description": "Qwen2.5-Coder-32B-Instruct ist ein großes Sprachmodell, das speziell für die Codegenerierung, das Verständnis von Code und effiziente Entwicklungsszenarien entwickelt wurde. Es verwendet eine branchenführende Parametergröße von 32B und kann vielfältige Programmieranforderungen erfüllen."
343
343
  },
344
- "SenseCat-5-1202": {
345
- "description": "Basierend auf der neuesten Version V5.5, zeigt es im Vergleich zur vorherigen Version signifikante Verbesserungen in den grundlegenden Fähigkeiten in Chinesisch und Englisch, im Chat, in naturwissenschaftlichem Wissen, in geisteswissenschaftlichem Wissen, im Schreiben, in mathematischer Logik und in der Wortanzahlkontrolle."
346
- },
347
344
  "SenseChat": {
348
345
  "description": "Basisversion des Modells (V4) mit 4K Kontextlänge, die über starke allgemeine Fähigkeiten verfügt."
349
346
  },
@@ -356,6 +353,9 @@
356
353
  "SenseChat-5": {
357
354
  "description": "Die neueste Modellversion (V5.5) mit 128K Kontextlänge hat signifikante Verbesserungen in den Bereichen mathematische Schlussfolgerungen, englische Konversation, Befolgen von Anweisungen und Verständnis langer Texte, vergleichbar mit GPT-4o."
358
355
  },
356
+ "SenseChat-5-1202": {
357
+ "description": "Basierend auf der neuesten Version V5.5 zeigt es im Vergleich zur Vorgängerversion deutliche Verbesserungen in den Bereichen Grundfähigkeiten in Chinesisch und Englisch, Chat, naturwissenschaftliches Wissen, geisteswissenschaftliches Wissen, Schreiben, mathematische Logik und Wortzahlkontrolle."
358
+ },
359
359
  "SenseChat-5-Cantonese": {
360
360
  "description": "Mit 32K Kontextlänge übertrifft es GPT-4 im Verständnis von Konversationen auf Kantonesisch und kann in mehreren Bereichen wie Wissen, Schlussfolgerungen, Mathematik und Programmierung mit GPT-4 Turbo konkurrieren."
361
361
  },
@@ -515,6 +515,12 @@
515
515
  "ai21-jamba-1.5-mini": {
516
516
  "description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und fundierte Generierung bietet."
517
517
  },
518
+ "ai21-labs/AI21-Jamba-1.5-Large": {
519
+ "description": "Ein mehrsprachiges Modell mit 398 Milliarden Parametern (davon 94 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und faktengestützte Generierung bietet."
520
+ },
521
+ "ai21-labs/AI21-Jamba-1.5-Mini": {
522
+ "description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (davon 12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und faktengestützte Generierung bietet."
523
+ },
518
524
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
519
525
  "description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
520
526
  },
@@ -668,6 +674,12 @@
668
674
  "cohere-command-r-plus": {
669
675
  "description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist."
670
676
  },
677
+ "cohere/Cohere-command-r": {
678
+ "description": "Command R ist ein skalierbares Generierungsmodell, das für RAG und Tool-Nutzung entwickelt wurde, um Unternehmen produktionsreife KI zu ermöglichen."
679
+ },
680
+ "cohere/Cohere-command-r-plus": {
681
+ "description": "Command R+ ist ein hochmodernes, für RAG optimiertes Modell, das für unternehmensweite Arbeitslasten ausgelegt ist."
682
+ },
671
683
  "command": {
672
684
  "description": "Ein dialogbasiertes Modell, das Anweisungen folgt und in sprachlichen Aufgaben hohe Qualität und Zuverlässigkeit bietet. Im Vergleich zu unserem grundlegenden Generierungsmodell hat es eine längere Kontextlänge."
673
685
  },
@@ -1028,6 +1040,12 @@
1028
1040
  "gemini-2.5-flash-preview-04-17": {
1029
1041
  "description": "Gemini 2.5 Flash Preview ist das kosteneffizienteste Modell von Google und bietet umfassende Funktionen."
1030
1042
  },
1043
+ "gemini-2.5-flash-preview-04-17-thinking": {
1044
+ "description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit umfassenden Funktionen."
1045
+ },
1046
+ "gemini-2.5-flash-preview-05-20": {
1047
+ "description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit umfassenden Funktionen."
1048
+ },
1031
1049
  "gemini-2.5-pro-exp-03-25": {
1032
1050
  "description": "Gemini 2.5 Pro Experimental ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren. Es kann auch lange Kontexte nutzen, um große Datensätze, Codebasen und Dokumente zu analysieren."
1033
1051
  },
@@ -1262,23 +1280,17 @@
1262
1280
  "grok-2-vision-1212": {
1263
1281
  "description": "Dieses Modell hat Verbesserungen in Bezug auf Genauigkeit, Befolgung von Anweisungen und Mehrsprachigkeit erfahren."
1264
1282
  },
1265
- "grok-3-beta": {
1266
- "description": "Flaggschiff-Modell, das sich auf Datenextraktion, Programmierung und Textzusammenfassungen für Unternehmensanwendungen spezialisiert hat und über umfassendes Wissen in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft verfügt."
1267
- },
1268
- "grok-3-fast-beta": {
1269
- "description": "Flaggschiff-Modell, das sich auf Datenextraktion, Programmierung und Textzusammenfassungen für Unternehmensanwendungen spezialisiert hat und über umfassendes Wissen in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft verfügt."
1283
+ "grok-3": {
1284
+ "description": "Ein Flaggschiffmodell, spezialisiert auf Datenextraktion, Programmierung und Textzusammenfassung für Unternehmensanwendungen, mit tiefgreifendem Wissen in den Bereichen Finanzen, Medizin, Recht und Wissenschaft."
1270
1285
  },
1271
- "grok-3-mini-beta": {
1272
- "description": "Leichtgewichtiges Modell, das vor dem Gespräch nachdenkt. Es läuft schnell und intelligent und eignet sich für logische Aufgaben, die kein tiefes Fachwissen erfordern, und kann die ursprünglichen Denkprozesse erfassen."
1286
+ "grok-3-fast": {
1287
+ "description": "Ein Flaggschiffmodell, spezialisiert auf Datenextraktion, Programmierung und Textzusammenfassung für Unternehmensanwendungen, mit tiefgreifendem Wissen in den Bereichen Finanzen, Medizin, Recht und Wissenschaft."
1273
1288
  },
1274
- "grok-3-mini-fast-beta": {
1275
- "description": "Leichtgewichtiges Modell, das vor dem Gespräch nachdenkt. Es läuft schnell und intelligent und eignet sich für logische Aufgaben, die kein tiefes Fachwissen erfordern, und kann die ursprünglichen Denkprozesse erfassen."
1289
+ "grok-3-mini": {
1290
+ "description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es arbeitet schnell und intelligent, eignet sich für logische Aufgaben ohne tiefgehendes Fachwissen und ermöglicht die Nachverfolgung des ursprünglichen Denkprozesses."
1276
1291
  },
1277
- "grok-beta": {
1278
- "description": "Bietet eine Leistung, die mit Grok 2 vergleichbar ist, jedoch mit höherer Effizienz, Geschwindigkeit und Funktionalität."
1279
- },
1280
- "grok-vision-beta": {
1281
- "description": "Das neueste Modell zur Bildverständnis, das eine Vielzahl von visuellen Informationen verarbeiten kann, einschließlich Dokumenten, Diagrammen, Screenshots und Fotos."
1292
+ "grok-3-mini-fast": {
1293
+ "description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es arbeitet schnell und intelligent, eignet sich für logische Aufgaben ohne tiefgehendes Fachwissen und ermöglicht die Nachverfolgung des ursprünglichen Denkprozesses."
1282
1294
  },
1283
1295
  "gryphe/mythomax-l2-13b": {
1284
1296
  "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
@@ -1322,6 +1334,9 @@
1322
1334
  "hunyuan-t1-latest": {
1323
1335
  "description": "Das erste ultra-skalierbare Hybrid-Transformer-Mamba-Inferenzmodell der Branche, das die Inferenzfähigkeiten erweitert, eine extrem hohe Dekodierungsgeschwindigkeit bietet und weiter auf menschliche Präferenzen abgestimmt ist."
1324
1336
  },
1337
+ "hunyuan-t1-vision": {
1338
+ "description": "Hunyuan ist ein multimodales Verständnis- und Tiefdenkmodell, das native multimodale lange Denkprozesse unterstützt. Es ist spezialisiert auf verschiedene Bildinferenzszenarien und zeigt im Vergleich zu Schnelldenkmodellen umfassende Verbesserungen bei naturwissenschaftlichen Problemen."
1339
+ },
1325
1340
  "hunyuan-translation": {
1326
1341
  "description": "Unterstützt die Übersetzung zwischen Chinesisch und Englisch, Japanisch, Französisch, Portugiesisch, Spanisch, Türkisch, Russisch, Arabisch, Koreanisch, Italienisch, Deutsch, Vietnamesisch, Malaiisch und Indonesisch in 15 Sprachen. Basierend auf einem automatisierten Bewertungs-Framework COMET, das auf mehrsprachigen Übersetzungsbewertungsszenarien basiert, übertrifft es insgesamt die Übersetzungsfähigkeiten anderer Modelle ähnlicher Größe auf dem Markt."
1327
1342
  },
@@ -1586,6 +1601,30 @@
1586
1601
  "meta.llama3-8b-instruct-v1:0": {
1587
1602
  "description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten."
1588
1603
  },
1604
+ "meta/Llama-3.2-11B-Vision-Instruct": {
1605
+ "description": "Exzellente Bildinferenzfähigkeiten bei hochauflösenden Bildern, ideal für Anwendungen im Bereich visuelles Verständnis."
1606
+ },
1607
+ "meta/Llama-3.2-90B-Vision-Instruct": {
1608
+ "description": "Fortschrittliche Bildinferenzfähigkeiten für visuelle Verständnisagenten."
1609
+ },
1610
+ "meta/Llama-3.3-70B-Instruct": {
1611
+ "description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Großsprachmodell der Llama-Reihe, das Leistung vergleichbar mit einem 405B-Modell zu sehr niedrigen Kosten bietet. Basierend auf der Transformer-Architektur, verbessert durch überwachtes Feintuning (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF) für Nützlichkeit und Sicherheit. Die instruktionsoptimierte Version ist für mehrsprachige Dialoge optimiert und übertrifft viele offene und geschlossene Chatmodelle in verschiedenen Branchenbenchmarks. Wissensstand: Dezember 2023."
1612
+ },
1613
+ "meta/Meta-Llama-3-70B-Instruct": {
1614
+ "description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das hervorragende Leistungen bei Inferenz, Codierung und vielfältigen Sprachaufgaben zeigt."
1615
+ },
1616
+ "meta/Meta-Llama-3-8B-Instruct": {
1617
+ "description": "Ein vielseitiges Modell mit 8 Milliarden Parametern, optimiert für Dialog- und Textgenerierungsaufgaben."
1618
+ },
1619
+ "meta/Meta-Llama-3.1-405B-Instruct": {
1620
+ "description": "Llama 3.1 ist ein instruktionsoptimiertes Textmodell, das für mehrsprachige Dialoganwendungen optimiert wurde und in vielen verfügbaren offenen und geschlossenen Chatmodellen bei gängigen Branchenbenchmarks hervorragende Leistungen zeigt."
1621
+ },
1622
+ "meta/Meta-Llama-3.1-70B-Instruct": {
1623
+ "description": "Llama 3.1 ist ein instruktionsoptimiertes Textmodell, das für mehrsprachige Dialoganwendungen optimiert wurde und in vielen verfügbaren offenen und geschlossenen Chatmodellen bei gängigen Branchenbenchmarks hervorragende Leistungen zeigt."
1624
+ },
1625
+ "meta/Meta-Llama-3.1-8B-Instruct": {
1626
+ "description": "Llama 3.1 ist ein instruktionsoptimiertes Textmodell, das für mehrsprachige Dialoganwendungen optimiert wurde und in vielen verfügbaren offenen und geschlossenen Chatmodellen bei gängigen Branchenbenchmarks hervorragende Leistungen zeigt."
1627
+ },
1589
1628
  "meta/llama-3.1-405b-instruct": {
1590
1629
  "description": "Fortgeschrittenes LLM, das die Generierung synthetischer Daten, Wissensverdichtung und Schlussfolgerungen unterstützt, geeignet für Chatbots, Programmierung und spezifische Aufgaben."
1591
1630
  },
@@ -1610,6 +1649,30 @@
1610
1649
  "meta/llama-3.3-70b-instruct": {
1611
1650
  "description": "Fortschrittliches LLM, das auf Schlussfolgern, Mathematik, Allgemeinwissen und Funktionsaufrufen spezialisiert ist."
1612
1651
  },
1652
+ "microsoft/Phi-3-medium-128k-instruct": {
1653
+ "description": "Dasselbe Phi-3-medium-Modell, jedoch mit größerem Kontextfenster, geeignet für RAG oder wenige Eingabeaufforderungen."
1654
+ },
1655
+ "microsoft/Phi-3-medium-4k-instruct": {
1656
+ "description": "Ein Modell mit 14 Milliarden Parametern, das qualitativ besser als Phi-3-mini ist und sich auf hochwertige, inferenzintensive Daten konzentriert."
1657
+ },
1658
+ "microsoft/Phi-3-mini-128k-instruct": {
1659
+ "description": "Dasselbe Phi-3-mini-Modell, jedoch mit größerem Kontextfenster, geeignet für RAG oder wenige Eingabeaufforderungen."
1660
+ },
1661
+ "microsoft/Phi-3-mini-4k-instruct": {
1662
+ "description": "Das kleinste Mitglied der Phi-3-Familie, optimiert für Qualität und geringe Latenz."
1663
+ },
1664
+ "microsoft/Phi-3-small-128k-instruct": {
1665
+ "description": "Dasselbe Phi-3-small-Modell, jedoch mit größerem Kontextfenster, geeignet für RAG oder wenige Eingabeaufforderungen."
1666
+ },
1667
+ "microsoft/Phi-3-small-8k-instruct": {
1668
+ "description": "Ein Modell mit 7 Milliarden Parametern, das qualitativ besser als Phi-3-mini ist und sich auf hochwertige, inferenzintensive Daten konzentriert."
1669
+ },
1670
+ "microsoft/Phi-3.5-mini-instruct": {
1671
+ "description": "Aktualisierte Version des Phi-3-mini-Modells."
1672
+ },
1673
+ "microsoft/Phi-3.5-vision-instruct": {
1674
+ "description": "Aktualisierte Version des Phi-3-vision-Modells."
1675
+ },
1613
1676
  "microsoft/WizardLM-2-8x22B": {
1614
1677
  "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet."
1615
1678
  },
@@ -1628,6 +1691,15 @@
1628
1691
  "mistral": {
1629
1692
  "description": "Mistral ist ein 7B-Modell von Mistral AI, das sich für vielfältige Anforderungen an die Sprachverarbeitung eignet."
1630
1693
  },
1694
+ "mistral-ai/Mistral-Large-2411": {
1695
+ "description": "Das Flaggschiffmodell von Mistral, geeignet für komplexe Aufgaben mit großem Inferenzbedarf oder hoher Spezialisierung (Textgenerierung, Codegenerierung, RAG oder Agenten)."
1696
+ },
1697
+ "mistral-ai/Mistral-Nemo": {
1698
+ "description": "Mistral Nemo ist ein hochmodernes Sprachmodell (LLM) mit führenden Fähigkeiten in seiner Größenklasse für Inferenz, Weltwissen und Codierung."
1699
+ },
1700
+ "mistral-ai/mistral-small-2503": {
1701
+ "description": "Mistral Small eignet sich für alle sprachbasierten Aufgaben, die hohe Effizienz und geringe Latenz erfordern."
1702
+ },
1631
1703
  "mistral-large": {
1632
1704
  "description": "Mixtral Large ist das Flaggschiff-Modell von Mistral, das die Fähigkeiten zur Codegenerierung, Mathematik und Schlussfolgerungen kombiniert und ein Kontextfenster von 128k unterstützt."
1633
1705
  },
@@ -1769,6 +1841,9 @@
1769
1841
  "openai/gpt-4o-mini": {
1770
1842
  "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
1771
1843
  },
1844
+ "openai/o1": {
1845
+ "description": "o1 ist OpenAIs neues Inferenzmodell, das Bild- und Texteingaben unterstützt und Text ausgibt. Es eignet sich für komplexe Aufgaben, die umfangreiches Allgemeinwissen erfordern. Das Modell verfügt über einen Kontext von 200K und einen Wissensstand bis Oktober 2023."
1846
+ },
1772
1847
  "openai/o1-mini": {
1773
1848
  "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
1774
1849
  },
@@ -259,9 +259,6 @@
259
259
  "enableMaxTokens": {
260
260
  "title": "Maximale Token pro Antwort aktivieren"
261
261
  },
262
- "enableReasoningEffort": {
263
- "title": "Aktivieren Sie die Anpassung der Schlussfolgerungsintensität"
264
- },
265
262
  "frequencyPenalty": {
266
263
  "desc": "Je höher der Wert, desto vielfältiger und abwechslungsreicher die Wortwahl; je niedriger der Wert, desto einfacher und schlichter die Wortwahl",
267
264
  "title": "Wortvielfalt"
@@ -281,15 +278,6 @@
281
278
  "desc": "Je höher der Wert, desto eher werden unterschiedliche Ausdrucksweisen bevorzugt, um Wiederholungen zu vermeiden; je niedriger der Wert, desto eher werden wiederholte Konzepte oder Erzählungen verwendet, was zu einer konsistenteren Ausdrucksweise führt",
282
279
  "title": "Ausdrucksvielfalt"
283
280
  },
284
- "reasoningEffort": {
285
- "desc": "Je höher der Wert, desto stärker die Schlussfolgerungsfähigkeit, aber dies kann die Antwortzeit und den Tokenverbrauch erhöhen.",
286
- "options": {
287
- "high": "Hoch",
288
- "low": "Niedrig",
289
- "medium": "Mittel"
290
- },
291
- "title": "Schlussfolgerungsintensität"
292
- },
293
281
  "submit": "Modell-Einstellungen aktualisieren",
294
282
  "temperature": {
295
283
  "desc": "Je höher der Wert, desto kreativer und einfallsreicher die Antworten; je niedriger der Wert, desto strenger die Antworten",
@@ -43,6 +43,9 @@
43
43
  "reasoningBudgetToken": {
44
44
  "title": "Thinking Consumption Token"
45
45
  },
46
+ "reasoningEffort": {
47
+ "title": "Reasoning Intensity"
48
+ },
46
49
  "title": "Model Extension Features"
47
50
  },
48
51
  "history": {
@@ -341,9 +341,6 @@
341
341
  "Qwen2.5-Coder-32B-Instruct": {
342
342
  "description": "Qwen2.5-Coder-32B-Instruct is a large language model specifically designed for code generation, code understanding, and efficient development scenarios, featuring an industry-leading 32 billion parameters to meet diverse programming needs."
343
343
  },
344
- "SenseCat-5-1202": {
345
- "description": "Based on the latest version V5.5, it shows significant improvements over the previous version in several dimensions, including basic capabilities in Chinese and English, conversation, scientific knowledge, humanities knowledge, writing, mathematical logic, and word count control."
346
- },
347
344
  "SenseChat": {
348
345
  "description": "Basic version model (V4) with a context length of 4K, featuring strong general capabilities."
349
346
  },
@@ -356,6 +353,9 @@
356
353
  "SenseChat-5": {
357
354
  "description": "The latest version model (V5.5) with a context length of 128K shows significant improvements in mathematical reasoning, English conversation, instruction following, and long text comprehension, comparable to GPT-4o."
358
355
  },
356
+ "SenseChat-5-1202": {
357
+ "description": "Based on version V5.5, this latest release shows significant improvements over the previous version in foundational Chinese and English capabilities, chat, science knowledge, humanities knowledge, writing, mathematical logic, and word count control."
358
+ },
359
359
  "SenseChat-5-Cantonese": {
360
360
  "description": "With a context length of 32K, it surpasses GPT-4 in Cantonese conversation comprehension and is competitive with GPT-4 Turbo in knowledge, reasoning, mathematics, and code writing across multiple domains."
361
361
  },
@@ -515,6 +515,12 @@
515
515
  "ai21-jamba-1.5-mini": {
516
516
  "description": "A 52B parameter (12B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation."
517
517
  },
518
+ "ai21-labs/AI21-Jamba-1.5-Large": {
519
+ "description": "A 398B parameter (94B active) multilingual model providing a 256K long context window, function calling, structured output, and fact-based generation."
520
+ },
521
+ "ai21-labs/AI21-Jamba-1.5-Mini": {
522
+ "description": "A 52B parameter (12B active) multilingual model offering a 256K long context window, function calling, structured output, and fact-based generation."
523
+ },
518
524
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
519
525
  "description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models."
520
526
  },
@@ -668,6 +674,12 @@
668
674
  "cohere-command-r-plus": {
669
675
  "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads."
670
676
  },
677
+ "cohere/Cohere-command-r": {
678
+ "description": "Command R is a scalable generative model designed for RAG and tool usage, enabling enterprises to achieve production-grade AI."
679
+ },
680
+ "cohere/Cohere-command-r-plus": {
681
+ "description": "Command R+ is a state-of-the-art RAG-optimized model designed to handle enterprise-level workloads."
682
+ },
671
683
  "command": {
672
684
  "description": "An instruction-following dialogue model that delivers high quality and reliability in language tasks, with a longer context length compared to our base generation models."
673
685
  },
@@ -1028,6 +1040,12 @@
1028
1040
  "gemini-2.5-flash-preview-04-17": {
1029
1041
  "description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering a comprehensive set of features."
1030
1042
  },
1043
+ "gemini-2.5-flash-preview-04-17-thinking": {
1044
+ "description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering comprehensive capabilities."
1045
+ },
1046
+ "gemini-2.5-flash-preview-05-20": {
1047
+ "description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering comprehensive capabilities."
1048
+ },
1031
1049
  "gemini-2.5-pro-exp-03-25": {
1032
1050
  "description": "Gemini 2.5 Pro Experimental is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long context."
1033
1051
  },
@@ -1262,23 +1280,17 @@
1262
1280
  "grok-2-vision-1212": {
1263
1281
  "description": "This model has improved in accuracy, instruction adherence, and multilingual capabilities."
1264
1282
  },
1265
- "grok-3-beta": {
1266
- "description": "A flagship model, proficient in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in fields such as finance, healthcare, law, and science."
1267
- },
1268
- "grok-3-fast-beta": {
1269
- "description": "A flagship model, proficient in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in fields such as finance, healthcare, law, and science."
1283
+ "grok-3": {
1284
+ "description": "A flagship model skilled in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in finance, healthcare, law, and science."
1270
1285
  },
1271
- "grok-3-mini-beta": {
1272
- "description": "A lightweight model that thinks before responding. It operates quickly and intelligently, suitable for logical tasks that do not require deep domain knowledge, while capturing the raw thought process."
1286
+ "grok-3-fast": {
1287
+ "description": "A flagship model skilled in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in finance, healthcare, law, and science."
1273
1288
  },
1274
- "grok-3-mini-fast-beta": {
1275
- "description": "A lightweight model that thinks before responding. It operates quickly and intelligently, suitable for logical tasks that do not require deep domain knowledge, while capturing the raw thought process."
1289
+ "grok-3-mini": {
1290
+ "description": "A lightweight model that thinks before responding. It runs fast and intelligently, suitable for logical tasks that do not require deep domain knowledge, and can provide raw thought trajectories."
1276
1291
  },
1277
- "grok-beta": {
1278
- "description": "Offers performance comparable to Grok 2 but with higher efficiency, speed, and functionality."
1279
- },
1280
- "grok-vision-beta": {
1281
- "description": "The latest image understanding model that can handle a wide range of visual information, including documents, charts, screenshots, and photographs."
1292
+ "grok-3-mini-fast": {
1293
+ "description": "A lightweight model that thinks before responding. It runs fast and intelligently, suitable for logical tasks that do not require deep domain knowledge, and can provide raw thought trajectories."
1282
1294
  },
1283
1295
  "gryphe/mythomax-l2-13b": {
1284
1296
  "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
@@ -1322,6 +1334,9 @@
1322
1334
  "hunyuan-t1-latest": {
1323
1335
  "description": "The industry's first ultra-large-scale Hybrid-Transformer-Mamba inference model, enhancing reasoning capabilities with exceptional decoding speed, further aligning with human preferences."
1324
1336
  },
1337
+ "hunyuan-t1-vision": {
1338
+ "description": "Hunyuan is a multimodal deep thinking model supporting native multimodal chain-of-thought reasoning, excelling in various image reasoning scenarios and significantly outperforming fast-thinking models on science problems."
1339
+ },
1325
1340
  "hunyuan-translation": {
1326
1341
  "description": "Supports translation between Chinese and 15 other languages including English, Japanese, French, Portuguese, Spanish, Turkish, Russian, Arabic, Korean, Italian, German, Vietnamese, Malay, and Indonesian. It is based on a multi-scenario translation evaluation set with automated COMET scoring, demonstrating overall superior translation capabilities compared to similarly scaled models in the market."
1327
1342
  },
@@ -1586,6 +1601,30 @@
1586
1601
  "meta.llama3-8b-instruct-v1:0": {
1587
1602
  "description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times."
1588
1603
  },
1604
+ "meta/Llama-3.2-11B-Vision-Instruct": {
1605
+ "description": "Exhibits excellent image reasoning capabilities on high-resolution images, suitable for visual understanding applications."
1606
+ },
1607
+ "meta/Llama-3.2-90B-Vision-Instruct": {
1608
+ "description": "Advanced image reasoning capabilities designed for visual understanding agent applications."
1609
+ },
1610
+ "meta/Llama-3.3-70B-Instruct": {
1611
+ "description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at a very low cost. Based on the Transformer architecture, it is enhanced through supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to improve usefulness and safety. Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on multiple industry benchmarks. Knowledge cutoff date: December 2023."
1612
+ },
1613
+ "meta/Meta-Llama-3-70B-Instruct": {
1614
+ "description": "A powerful 70 billion parameter model excelling in reasoning, coding, and a wide range of language applications."
1615
+ },
1616
+ "meta/Meta-Llama-3-8B-Instruct": {
1617
+ "description": "A versatile 8 billion parameter model optimized for dialogue and text generation tasks."
1618
+ },
1619
+ "meta/Meta-Llama-3.1-405B-Instruct": {
1620
+ "description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
1621
+ },
1622
+ "meta/Meta-Llama-3.1-70B-Instruct": {
1623
+ "description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
1624
+ },
1625
+ "meta/Meta-Llama-3.1-8B-Instruct": {
1626
+ "description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
1627
+ },
1589
1628
  "meta/llama-3.1-405b-instruct": {
1590
1629
  "description": "An advanced LLM supporting synthetic data generation, knowledge distillation, and reasoning, suitable for chatbots, programming, and domain-specific tasks."
1591
1630
  },
@@ -1610,6 +1649,30 @@
1610
1649
  "meta/llama-3.3-70b-instruct": {
1611
1650
  "description": "An advanced LLM skilled in reasoning, mathematics, common sense, and function calling."
1612
1651
  },
1652
+ "microsoft/Phi-3-medium-128k-instruct": {
1653
+ "description": "The same Phi-3-medium model but with a larger context size, suitable for RAG or few-shot prompting."
1654
+ },
1655
+ "microsoft/Phi-3-medium-4k-instruct": {
1656
+ "description": "A 14 billion parameter model with higher quality than Phi-3-mini, focusing on high-quality, reasoning-intensive data."
1657
+ },
1658
+ "microsoft/Phi-3-mini-128k-instruct": {
1659
+ "description": "The same Phi-3-mini model but with a larger context size, suitable for RAG or few-shot prompting."
1660
+ },
1661
+ "microsoft/Phi-3-mini-4k-instruct": {
1662
+ "description": "The smallest member of the Phi-3 family, optimized for quality and low latency."
1663
+ },
1664
+ "microsoft/Phi-3-small-128k-instruct": {
1665
+ "description": "The same Phi-3-small model but with a larger context size, suitable for RAG or few-shot prompting."
1666
+ },
1667
+ "microsoft/Phi-3-small-8k-instruct": {
1668
+ "description": "A 7 billion parameter model with higher quality than Phi-3-mini, focusing on high-quality, reasoning-intensive data."
1669
+ },
1670
+ "microsoft/Phi-3.5-mini-instruct": {
1671
+ "description": "An updated version of the Phi-3-mini model."
1672
+ },
1673
+ "microsoft/Phi-3.5-vision-instruct": {
1674
+ "description": "An updated version of the Phi-3-vision model."
1675
+ },
1613
1676
  "microsoft/WizardLM-2-8x22B": {
1614
1677
  "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks."
1615
1678
  },
@@ -1628,6 +1691,15 @@
1628
1691
  "mistral": {
1629
1692
  "description": "Mistral is a 7B model released by Mistral AI, suitable for diverse language processing needs."
1630
1693
  },
1694
+ "mistral-ai/Mistral-Large-2411": {
1695
+ "description": "Mistral's flagship model, ideal for large-scale reasoning or highly specialized complex tasks such as synthetic text generation, code generation, RAG, or agents."
1696
+ },
1697
+ "mistral-ai/Mistral-Nemo": {
1698
+ "description": "Mistral Nemo is a cutting-edge large language model (LLM) with state-of-the-art reasoning, world knowledge, and coding capabilities in its size category."
1699
+ },
1700
+ "mistral-ai/mistral-small-2503": {
1701
+ "description": "Mistral Small is suitable for any language-based task requiring high efficiency and low latency."
1702
+ },
1631
1703
  "mistral-large": {
1632
1704
  "description": "Mixtral Large is Mistral's flagship model, combining capabilities in code generation, mathematics, and reasoning, supporting a 128k context window."
1633
1705
  },
@@ -1769,6 +1841,9 @@
1769
1841
  "openai/gpt-4o-mini": {
1770
1842
  "description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
1771
1843
  },
1844
+ "openai/o1": {
1845
+ "description": "o1 is OpenAI's new reasoning model that supports multimodal input and outputs text, suitable for complex tasks requiring broad general knowledge. This model features a 200K context window and a knowledge cutoff date of October 2023."
1846
+ },
1772
1847
  "openai/o1-mini": {
1773
1848
  "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023."
1774
1849
  },
@@ -259,9 +259,6 @@
259
259
  "enableMaxTokens": {
260
260
  "title": "Enable Max Tokens Limit"
261
261
  },
262
- "enableReasoningEffort": {
263
- "title": "Enable Reasoning Effort Adjustment"
264
- },
265
262
  "frequencyPenalty": {
266
263
  "desc": "The higher the value, the more diverse and rich the vocabulary; the lower the value, the simpler and more straightforward the language.",
267
264
  "title": "Vocabulary Richness"
@@ -281,15 +278,6 @@
281
278
  "desc": "The higher the value, the more inclined to use different expressions and avoid concept repetition; the lower the value, the more inclined to use repeated concepts or narratives, resulting in more consistent expression.",
282
279
  "title": "Expression Divergence"
283
280
  },
284
- "reasoningEffort": {
285
- "desc": "The higher the value, the stronger the reasoning ability, but it may increase response time and token consumption.",
286
- "options": {
287
- "high": "High",
288
- "low": "Low",
289
- "medium": "Medium"
290
- },
291
- "title": "Reasoning Effort"
292
- },
293
281
  "submit": "Update Model Settings",
294
282
  "temperature": {
295
283
  "desc": "The higher the value, the more creative and imaginative the responses; the lower the value, the more rigorous the responses.",
@@ -43,6 +43,9 @@
43
43
  "reasoningBudgetToken": {
44
44
  "title": "Token de consumo de pensamiento"
45
45
  },
46
+ "reasoningEffort": {
47
+ "title": "Intensidad de razonamiento"
48
+ },
46
49
  "title": "Funcionalidad de extensión del modelo"
47
50
  },
48
51
  "history": {