@lobehub/chat 1.115.0 → 1.116.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (98) hide show
  1. package/.cursor/rules/add-provider-doc.mdc +183 -0
  2. package/.env.example +8 -0
  3. package/.github/workflows/release.yml +3 -3
  4. package/.github/workflows/test.yml +3 -7
  5. package/CHANGELOG.md +25 -0
  6. package/CLAUDE.md +6 -6
  7. package/Dockerfile +5 -1
  8. package/Dockerfile.database +5 -1
  9. package/Dockerfile.pglite +5 -1
  10. package/changelog/v1.json +9 -0
  11. package/docs/development/basic/setup-development.mdx +10 -13
  12. package/docs/development/basic/setup-development.zh-CN.mdx +9 -12
  13. package/docs/self-hosting/environment-variables/model-provider.mdx +27 -2
  14. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +27 -2
  15. package/docs/usage/providers/bfl.mdx +68 -0
  16. package/docs/usage/providers/bfl.zh-CN.mdx +67 -0
  17. package/locales/ar/components.json +11 -0
  18. package/locales/ar/error.json +11 -0
  19. package/locales/ar/models.json +64 -4
  20. package/locales/ar/providers.json +3 -0
  21. package/locales/bg-BG/components.json +11 -0
  22. package/locales/bg-BG/error.json +11 -0
  23. package/locales/bg-BG/models.json +64 -4
  24. package/locales/bg-BG/providers.json +3 -0
  25. package/locales/de-DE/components.json +11 -0
  26. package/locales/de-DE/error.json +11 -12
  27. package/locales/de-DE/models.json +64 -4
  28. package/locales/de-DE/providers.json +3 -0
  29. package/locales/en-US/components.json +6 -0
  30. package/locales/en-US/error.json +11 -12
  31. package/locales/en-US/models.json +64 -4
  32. package/locales/en-US/providers.json +3 -0
  33. package/locales/es-ES/components.json +11 -0
  34. package/locales/es-ES/error.json +11 -0
  35. package/locales/es-ES/models.json +64 -6
  36. package/locales/es-ES/providers.json +3 -0
  37. package/locales/fa-IR/components.json +11 -0
  38. package/locales/fa-IR/error.json +11 -0
  39. package/locales/fa-IR/models.json +64 -4
  40. package/locales/fa-IR/providers.json +3 -0
  41. package/locales/fr-FR/components.json +11 -0
  42. package/locales/fr-FR/error.json +11 -12
  43. package/locales/fr-FR/models.json +64 -4
  44. package/locales/fr-FR/providers.json +3 -0
  45. package/locales/it-IT/components.json +11 -0
  46. package/locales/it-IT/error.json +11 -0
  47. package/locales/it-IT/models.json +64 -4
  48. package/locales/it-IT/providers.json +3 -0
  49. package/locales/ja-JP/components.json +11 -0
  50. package/locales/ja-JP/error.json +11 -12
  51. package/locales/ja-JP/models.json +64 -4
  52. package/locales/ja-JP/providers.json +3 -0
  53. package/locales/ko-KR/components.json +11 -0
  54. package/locales/ko-KR/error.json +11 -12
  55. package/locales/ko-KR/models.json +64 -6
  56. package/locales/ko-KR/providers.json +3 -0
  57. package/locales/nl-NL/components.json +11 -0
  58. package/locales/nl-NL/error.json +11 -0
  59. package/locales/nl-NL/models.json +62 -4
  60. package/locales/nl-NL/providers.json +3 -0
  61. package/locales/pl-PL/components.json +11 -0
  62. package/locales/pl-PL/error.json +11 -0
  63. package/locales/pl-PL/models.json +64 -4
  64. package/locales/pl-PL/providers.json +3 -0
  65. package/locales/pt-BR/components.json +11 -0
  66. package/locales/pt-BR/error.json +11 -0
  67. package/locales/pt-BR/models.json +64 -4
  68. package/locales/pt-BR/providers.json +3 -0
  69. package/locales/ru-RU/components.json +11 -0
  70. package/locales/ru-RU/error.json +11 -0
  71. package/locales/ru-RU/models.json +64 -4
  72. package/locales/ru-RU/providers.json +3 -0
  73. package/locales/tr-TR/components.json +11 -0
  74. package/locales/tr-TR/error.json +11 -0
  75. package/locales/tr-TR/models.json +64 -4
  76. package/locales/tr-TR/providers.json +3 -0
  77. package/locales/vi-VN/components.json +11 -0
  78. package/locales/vi-VN/error.json +11 -0
  79. package/locales/vi-VN/models.json +64 -4
  80. package/locales/vi-VN/providers.json +3 -0
  81. package/locales/zh-CN/components.json +6 -0
  82. package/locales/zh-CN/error.json +11 -0
  83. package/locales/zh-CN/models.json +64 -4
  84. package/locales/zh-CN/providers.json +3 -0
  85. package/locales/zh-TW/components.json +11 -0
  86. package/locales/zh-TW/error.json +11 -12
  87. package/locales/zh-TW/models.json +64 -6
  88. package/locales/zh-TW/providers.json +3 -0
  89. package/package.json +1 -1
  90. package/packages/model-runtime/src/google/index.ts +3 -0
  91. package/packages/model-runtime/src/qwen/createImage.test.ts +0 -19
  92. package/packages/model-runtime/src/qwen/createImage.ts +1 -27
  93. package/packages/model-runtime/src/utils/streams/google-ai.ts +26 -14
  94. package/packages/types/src/aiModel.ts +2 -1
  95. package/src/config/aiModels/google.ts +22 -1
  96. package/src/config/aiModels/qwen.ts +2 -2
  97. package/src/config/aiModels/vertexai.ts +22 -0
  98. package/.cursor/rules/debug.mdc +0 -193
@@ -332,12 +332,21 @@
332
332
  "Qwen/Qwen3-30B-A3B-Instruct-2507": {
333
333
  "description": "Qwen3-30B-A3B-Instruct-2507 ist eine aktualisierte Version des Qwen3-30B-A3B im Nicht-Denkmodus. Es handelt sich um ein Mixture-of-Experts (MoE)-Modell mit insgesamt 30,5 Milliarden Parametern und 3,3 Milliarden Aktivierungsparametern. Das Modell wurde in mehreren Bereichen entscheidend verbessert, darunter eine signifikante Steigerung der Befolgung von Anweisungen, logisches Denken, Textverständnis, Mathematik, Wissenschaft, Programmierung und Werkzeugnutzung. Gleichzeitig wurden substanzielle Fortschritte bei der Abdeckung von Langschwanzwissen in mehreren Sprachen erzielt, und es kann besser auf die Präferenzen der Nutzer bei subjektiven und offenen Aufgaben abgestimmt werden, um hilfreichere Antworten und qualitativ hochwertigere Texte zu generieren. Darüber hinaus wurde die Fähigkeit zum Verständnis langer Texte auf 256K erweitert. Dieses Modell unterstützt ausschließlich den Nicht-Denkmodus und generiert keine `<think></think>`-Tags in der Ausgabe."
334
334
  },
335
+ "Qwen/Qwen3-30B-A3B-Thinking-2507": {
336
+ "description": "Qwen3-30B-A3B-Thinking-2507 ist das neueste Denkmodell der Qwen3‑Serie, veröffentlicht vom Alibaba Tongyi Qianwen‑Team. Als ein Mixture-of-Experts-(MoE)-Modell mit 30,5 Milliarden Gesamtparametern und 3,3 Milliarden aktiven Parametern konzentriert es sich auf die Verbesserung der Bewältigung komplexer Aufgaben. Das Modell zeigt deutliche Leistungssteigerungen in akademischen Benchmarks für logisches Schließen, Mathematik, Naturwissenschaften, Programmierung sowie Aufgaben, die menschliche Fachkenntnisse erfordern. Gleichzeitig wurden seine allgemeinen Fähigkeiten bei der Befolgung von Anweisungen, der Nutzung von Werkzeugen, der Textgenerierung und der Anpassung an menschliche Präferenzen erheblich gestärkt. Das Modell unterstützt nativ ein langes Kontextverständnis von 256K und ist auf bis zu 1 Million Tokens skalierbar. Diese Version ist speziell für den 'Denkmodus' konzipiert und zielt darauf ab, hochkomplexe Aufgaben durch ausführliches, schrittweises Denken zu lösen; auch seine Agent‑Fähigkeiten sind hervorragend."
337
+ },
335
338
  "Qwen/Qwen3-32B": {
336
339
  "description": "Qwen3 ist ein neues, leistungsstark verbessertes Modell von Tongyi Qianwen, das in den Bereichen Denken, Allgemeinwissen, Agenten und Mehrsprachigkeit in mehreren Kernfähigkeiten branchenführende Standards erreicht und den Wechsel zwischen Denkmodi unterstützt."
337
340
  },
338
341
  "Qwen/Qwen3-8B": {
339
342
  "description": "Qwen3 ist ein neues, leistungsstark verbessertes Modell von Tongyi Qianwen, das in den Bereichen Denken, Allgemeinwissen, Agenten und Mehrsprachigkeit in mehreren Kernfähigkeiten branchenführende Standards erreicht und den Wechsel zwischen Denkmodi unterstützt."
340
343
  },
344
+ "Qwen/Qwen3-Coder-30B-A3B-Instruct": {
345
+ "description": "Qwen3-Coder-30B-A3B-Instruct ist ein Code-Modell der Qwen3-Serie, das vom Alibaba-Team Tongyi Qianwen entwickelt wurde. Als schlank optimiertes Modell konzentriert es sich darauf, die Code-Verarbeitungsfähigkeiten zu verbessern, während es hohe Leistung und Effizienz beibehält. Das Modell zeigt unter Open-Source-Modellen deutliche Leistungsvorteile bei komplexen Aufgaben wie agentischem Programmieren (Agentic Coding), automatisierten Browseroperationen und Werkzeugaufrufen. Es unterstützt nativ lange Kontexte mit 256K Tokens und lässt sich auf bis zu 1M Tokens erweitern, sodass es Verständnis- und Verarbeitungsaufgaben auf Ebene ganzer Codebasen besser bewältigen kann. Darüber hinaus bietet das Modell starke Agenten-Codierungsunterstützung für Plattformen wie Qwen Code und CLINE und verfügt über ein speziell entwickeltes Format für Funktionsaufrufe."
346
+ },
347
+ "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
348
+ "description": "Qwen3-Coder-480B-A35B-Instruct wurde von Alibaba veröffentlicht und ist bislang das agentischste Code-Modell. Es ist ein Mixture-of-Experts-(MoE)-Modell mit 480 Milliarden Gesamtparametern und 35 Milliarden aktivierten Parametern, das ein ausgewogenes Verhältnis von Effizienz und Leistung bietet. Das Modell unterstützt nativ eine Kontextlänge von 256K (≈260.000) Token und lässt sich mittels Extrapolationsverfahren wie YaRN auf bis zu 1.000.000 Token erweitern, sodass es große Codebasen und komplexe Programmieraufgaben verarbeiten kann. Qwen3-Coder wurde für agentenbasierte Coding-Workflows entwickelt: Es generiert nicht nur Code, sondern kann auch eigenständig mit Entwicklungswerkzeugen und -umgebungen interagieren, um komplexe Programmierprobleme zu lösen. In mehreren Benchmarks zu Coding- und Agentenaufgaben gehört das Modell zu den Spitzenreitern unter Open-Source-Modellen und erreicht eine Leistungsfähigkeit, die mit führenden Modellen wie Claude Sonnet 4 vergleichbar ist."
349
+ },
341
350
  "Qwen2-72B-Instruct": {
342
351
  "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle."
343
352
  },
@@ -1103,12 +1112,27 @@
1103
1112
  "flux-dev": {
1104
1113
  "description": "FLUX.1 [dev] ist ein Open-Source-Gewichtungs- und Feinschlichtungsmodell für nicht-kommerzielle Anwendungen. Es bietet eine Bildqualität und Instruktionsbefolgung ähnlich der professionellen FLUX-Version, jedoch mit höherer Effizienz. Im Vergleich zu Standardmodellen gleicher Größe ist es ressourcenschonender."
1105
1114
  },
1115
+ "flux-kontext-max": {
1116
+ "description": "Modernste kontextbezogene Bildgenerierung und -bearbeitung – verbindet Text und Bilder, um präzise, kohärente Ergebnisse zu erzielen."
1117
+ },
1118
+ "flux-kontext-pro": {
1119
+ "description": "Modernste kontextbezogene Bildgenerierung und -bearbeitung – verbindet Text und Bild zu präzisen, kohärenten Ergebnissen."
1120
+ },
1106
1121
  "flux-kontext/dev": {
1107
1122
  "description": "FLUX.1 Modell, spezialisiert auf Bildbearbeitungsaufgaben, unterstützt Text- und Bildeingaben."
1108
1123
  },
1109
1124
  "flux-merged": {
1110
1125
  "description": "Das FLUX.1-merged Modell kombiniert die tiefgehenden Eigenschaften, die in der Entwicklungsphase von „DEV“ erforscht wurden, mit der hohen Ausführungsgeschwindigkeit von „Schnell“. Dadurch werden sowohl die Leistungsgrenzen des Modells erweitert als auch dessen Anwendungsbereich vergrößert."
1111
1126
  },
1127
+ "flux-pro": {
1128
+ "description": "Premium-kommerzielles KI-Bildgenerierungsmodell — unvergleichliche Bildqualität und vielfältige Ausgabemöglichkeiten."
1129
+ },
1130
+ "flux-pro-1.1": {
1131
+ "description": "Verbessertes professionelles KI-Modell zur Bildgenerierung — bietet herausragende Bildqualität und eine präzise Umsetzung von Eingabeaufforderungen."
1132
+ },
1133
+ "flux-pro-1.1-ultra": {
1134
+ "description": "Ultrahochauflösende KI-Bildgenerierung — unterstützt Ausgaben mit 4 Megapixeln und erstellt hochauflösende Bilder innerhalb von 10 Sekunden."
1135
+ },
1112
1136
  "flux-pro/kontext": {
1113
1137
  "description": "FLUX.1 Kontext [pro] kann Text und Referenzbilder als Eingabe verarbeiten und ermöglicht nahtlose zielgerichtete lokale Bearbeitungen sowie komplexe umfassende Szenenveränderungen."
1114
1138
  },
@@ -1193,6 +1217,9 @@
1193
1217
  "gemini-2.5-flash": {
1194
1218
  "description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell und bietet umfassende Funktionen."
1195
1219
  },
1220
+ "gemini-2.5-flash-image-preview": {
1221
+ "description": "Gemini 2.5 Flash Image Preview ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell. Es ermöglicht Ihnen, Bilder im Dialog zu erstellen und zu bearbeiten."
1222
+ },
1196
1223
  "gemini-2.5-flash-lite": {
1197
1224
  "description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell, das speziell für den großflächigen Einsatz entwickelt wurde."
1198
1225
  },
@@ -1295,6 +1322,9 @@
1295
1322
  "glm-4.5-x": {
1296
1323
  "description": "Die Turbo-Version von GLM-4.5, die bei starker Leistung eine Generierungsgeschwindigkeit von bis zu 100 Tokens pro Sekunde erreicht."
1297
1324
  },
1325
+ "glm-4.5v": {
1326
+ "description": "Das neue visuelle Inferenzmodell der nächsten Generation von Zhipu, basierend auf der MOE-Architektur, verfügt über 106B Gesamtparameter und 12B aktivierte Parameter und erzielt in verschiedenen Benchmarks State-of-the-Art‑Ergebnisse (SOTA) unter weltweit vergleichbaren Open‑Source‑multimodalen Modellen. Es deckt gängige Aufgaben wie Bild-, Video- und Dokumentenverständnis sowie GUI‑Aufgaben ab."
1327
+ },
1298
1328
  "glm-4v": {
1299
1329
  "description": "GLM-4V bietet starke Fähigkeiten zur Bildverständnis und -schlussfolgerung und unterstützt eine Vielzahl visueller Aufgaben."
1300
1330
  },
@@ -1434,7 +1464,7 @@
1434
1464
  "description": "GPT-4.1 mini bietet ein Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten, was es zu einem attraktiven Modell für viele Anwendungsfälle macht."
1435
1465
  },
1436
1466
  "gpt-4.5-preview": {
1437
- "description": "Die Forschungs-Vorschau von GPT-4.5, unserem bisher größten und leistungsstärksten GPT-Modell. Es verfügt über umfangreiches Weltwissen und kann die Absichten der Benutzer besser verstehen, was es in kreativen Aufgaben und autonomer Planung herausragend macht. GPT-4.5 akzeptiert Text- und Bild-Eingaben und generiert Textausgaben (einschließlich strukturierter Ausgaben). Es unterstützt wichtige Entwicklerfunktionen wie Funktionsaufrufe, Batch-APIs und Streaming-Ausgaben. In Aufgaben, die kreatives, offenes Denken und Dialog erfordern (wie Schreiben, Lernen oder das Erkunden neuer Ideen), zeigt GPT-4.5 besonders gute Leistungen. Der Wissensstand ist bis Oktober 2023."
1467
+ "description": "GPT-4.5-preview ist das neueste Allzweckmodell, verfügt über fundiertes Weltwissen und ein verbessertes Verständnis der Nutzerintentionen und ist besonders leistungsfähig bei kreativen Aufgaben sowie in der Planung von Agenten. Das Wissen des Modells reicht bis Oktober 2023."
1438
1468
  },
1439
1469
  "gpt-4o": {
1440
1470
  "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung."
@@ -1637,9 +1667,18 @@
1637
1667
  "image-01-live": {
1638
1668
  "description": "Bildgenerierungsmodell mit feiner Bilddarstellung, unterstützt Text-zu-Bild und Stil-Einstellungen."
1639
1669
  },
1670
+ "imagen-4.0-fast-generate-001": {
1671
+ "description": "Imagen – Text-zu-Bild-Modellreihe der 4. Generation (Fast-Version)"
1672
+ },
1673
+ "imagen-4.0-generate-001": {
1674
+ "description": "Imagen, Text-zu-Bild-Modellreihe der 4. Generation"
1675
+ },
1640
1676
  "imagen-4.0-generate-preview-06-06": {
1641
1677
  "description": "Imagen 4. Generation Text-zu-Bild Modellserie"
1642
1678
  },
1679
+ "imagen-4.0-ultra-generate-001": {
1680
+ "description": "Imagen, Text-zu-Bild-Modell der 4. Generation (Ultra-Version)"
1681
+ },
1643
1682
  "imagen-4.0-ultra-generate-preview-06-06": {
1644
1683
  "description": "Imagen 4. Generation Text-zu-Bild Modellserie Ultra-Version"
1645
1684
  },
@@ -1679,6 +1718,9 @@
1679
1718
  "kimi-k2-0711-preview": {
1680
1719
  "description": "kimi-k2 ist ein MoE-Architektur-Basis-Modell mit außergewöhnlichen Fähigkeiten in Code und Agentenfunktionen, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
1681
1720
  },
1721
+ "kimi-k2-turbo-preview": {
1722
+ "description": "kimi-k2 ist ein Basis-Modell mit MoE-Architektur und besonders starken Fähigkeiten im Bereich Code und Agenten. Es verfügt über insgesamt 1T Parameter und 32B aktivierte Parameter. In Benchmark-Tests der wichtigsten Kategorien – allgemeines Wissens-Reasoning, Programmierung, Mathematik und Agenten – übertrifft das K2-Modell die Leistung anderer gängiger Open‑Source‑Modelle."
1723
+ },
1682
1724
  "kimi-latest": {
1683
1725
  "description": "Das Kimi intelligente Assistenzprodukt verwendet das neueste Kimi Großmodell, das möglicherweise noch instabile Funktionen enthält. Es unterstützt die Bildverarbeitung und wählt automatisch das Abrechnungsmodell 8k/32k/128k basierend auf der Länge des angeforderten Kontexts aus."
1684
1726
  },
@@ -1763,6 +1805,9 @@
1763
1805
  "llava:34b": {
1764
1806
  "description": "LLaVA ist ein multimodales Modell, das visuelle Encoder und Vicuna kombiniert und für starke visuelle und sprachliche Verständnisse sorgt."
1765
1807
  },
1808
+ "magistral-medium-latest": {
1809
+ "description": "Magistral Medium 1.1 ist ein fortschrittliches Inferenzmodell, das Mistral AI im Juli 2025 veröffentlicht hat."
1810
+ },
1766
1811
  "mathstral": {
1767
1812
  "description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen."
1768
1813
  },
@@ -2094,7 +2139,7 @@
2094
2139
  "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
2095
2140
  },
2096
2141
  "o1-preview": {
2097
- "description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
2142
+ "description": "Konzentriert auf fortgeschrittenes Schlussfolgern und die Lösung komplexer Probleme, einschließlich mathematischer und naturwissenschaftlicher Aufgaben. Sehr gut geeignet für Anwendungen, die ein tiefes Kontextverständnis und autonome Arbeitsabläufe benötigen."
2098
2143
  },
2099
2144
  "o1-pro": {
2100
2145
  "description": "Die o1-Serie wurde durch verstärkendes Lernen trainiert, um vor der Antwort nachzudenken und komplexe Schlussfolgerungen zu ziehen. Das o1-pro Modell nutzt mehr Rechenressourcen für tiefere Überlegungen und liefert dadurch kontinuierlich qualitativ hochwertigere Antworten."
@@ -2213,8 +2258,14 @@
2213
2258
  "qwen-coder-turbo-latest": {
2214
2259
  "description": "Das Tongyi Qianwen Code-Modell."
2215
2260
  },
2261
+ "qwen-flash": {
2262
+ "description": "Die Tongyi-Qianwen-Reihe bietet besonders schnelle und sehr kostengünstige Modelle und eignet sich für einfache Aufgaben."
2263
+ },
2216
2264
  "qwen-image": {
2217
- "description": "Leistungsstarkes Rohbildmodell vom Qwen-Team mit beeindruckenden Fähigkeiten zur chinesischen Textgenerierung und vielfältigen visuellen Bildstilen."
2265
+ "description": "Qwen-Image ist ein universelles Bildgenerierungsmodell, das zahlreiche Kunststile unterstützt und sich besonders bei der Wiedergabe komplexer Texte auszeichnet, insbesondere bei chinesischen und englischen Schriftzügen. Das Modell unterstützt mehrzeilige Layouts, absatzweises Textgenerieren sowie die präzise Darstellung feiner Details und ermöglicht die Erstellung komplexer Bild-Text-Kombinationen."
2266
+ },
2267
+ "qwen-image-edit": {
2268
+ "description": "Das Qwen-Team hat ein professionelles Modell zur Bildbearbeitung veröffentlicht, das semantische Bearbeitungen und Aussehensbearbeitungen unterstützt. Es kann chinesische und englische Texte präzise bearbeiten und ermöglicht Stiltransformationen, Objektrotationen sowie weitere hochwertige Bildbearbeitungen."
2218
2269
  },
2219
2270
  "qwen-long": {
2220
2271
  "description": "Qwen ist ein groß angelegtes Sprachmodell, das lange Textkontexte unterstützt und Dialogfunktionen für verschiedene Szenarien wie lange Dokumente und mehrere Dokumente bietet."
@@ -2241,7 +2292,7 @@
2241
2292
  "description": "Qwen Plus ist die verbesserte Version des großangelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
2242
2293
  },
2243
2294
  "qwen-turbo": {
2244
- "description": "Qwen Turbo ist ein großangelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
2295
+ "description": "通义千问 Turbo wird künftig nicht mehr aktualisiert. Es wird empfohlen, auf 通义千问 Flash umzusteigen. 通义千问 ist ein äußerst groß angelegtes Sprachmodell und unterstützt Eingaben in Chinesisch, Englisch und weiteren Sprachen."
2245
2296
  },
2246
2297
  "qwen-vl-chat-v1": {
2247
2298
  "description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten."
@@ -2558,9 +2609,15 @@
2558
2609
  "step-2x-large": {
2559
2610
  "description": "Das neue Generationen-Bildmodell von Step Star konzentriert sich auf Bildgenerierung und kann basierend auf Textbeschreibungen des Nutzers hochwertige Bilder erzeugen. Das neue Modell erzeugt realistischere Bildtexturen und bietet verbesserte Fähigkeiten bei der Erzeugung chinesischer und englischer Schriftzeichen."
2560
2611
  },
2612
+ "step-3": {
2613
+ "description": "Dieses Modell verfügt über eine leistungsfähige visuelle Wahrnehmung und ausgeprägte Fähigkeiten zum komplexen Schlussfolgern. Es kann fachübergreifendes Verständnis komplexer Zusammenhänge, die kombinierte Analyse von mathematischen und visuellen Informationen sowie vielfältige visuelle Analyseaufgaben des Alltags präzise bewältigen."
2614
+ },
2561
2615
  "step-r1-v-mini": {
2562
2616
  "description": "Dieses Modell ist ein leistungsstarkes Schlussfolgerungsmodell mit starker Bildverständnisfähigkeit, das in der Lage ist, Bild- und Textinformationen zu verarbeiten und nach tiefem Denken Textinhalte zu generieren. Es zeigt herausragende Leistungen im Bereich der visuellen Schlussfolgerung und verfügt über erstklassige Fähigkeiten in Mathematik, Programmierung und Textschlussfolgerung. Die Kontextlänge beträgt 100k."
2563
2617
  },
2618
+ "stepfun-ai/step3": {
2619
+ "description": "Step3 ist ein wegweisendes multimodales Inferenzmodell, veröffentlicht von StepFun (阶跃星辰). Es basiert auf einer Mixture-of-Experts-(MoE)-Architektur mit insgesamt 321 Milliarden Parametern und 38 Milliarden Aktivierungsparametern. Das Modell ist als End-to-End-System konzipiert, um die Decodierungskosten zu minimieren und gleichzeitig erstklassige Leistung bei visuell-sprachlicher Inferenz zu bieten. Durch die synergistische Kombination von Multi-Matrix-Factorization-Attention (MFA) und Attention-FFN-Dekopplung (AFD) erzielt Step3 sowohl auf High-End- als auch auf ressourcenbeschränkten Beschleunigern hohe Effizienz. In der Vortrainingsphase verarbeitete Step3 mehr als 20 Billionen Text-Tokens und 4 Billionen multimodale (Bild‑Text) Tokens und deckt dabei über zehn Sprachen ab. Das Modell erzielt in zahlreichen Benchmarks — etwa in Mathematik, Programmierung und Multimodalität — führende Ergebnisse unter den Open‑Source‑Modellen."
2620
+ },
2564
2621
  "taichu_llm": {
2565
2622
  "description": "Das Zīdōng Taichu Sprachmodell verfügt über außergewöhnliche Sprachverständnisfähigkeiten sowie Fähigkeiten in Textgenerierung, Wissensabfrage, Programmierung, mathematischen Berechnungen, logischem Denken, Sentimentanalyse und Textzusammenfassung. Es kombiniert innovativ große Datenvortrainings mit reichhaltigem Wissen aus mehreren Quellen, verfeinert kontinuierlich die Algorithmen und absorbiert ständig neues Wissen aus umfangreichen Textdaten in Bezug auf Vokabular, Struktur, Grammatik und Semantik, um die Leistung des Modells kontinuierlich zu verbessern. Es bietet den Nutzern bequemere Informationen und Dienstleistungen sowie ein intelligenteres Erlebnis."
2566
2623
  },
@@ -2707,5 +2764,8 @@
2707
2764
  },
2708
2765
  "zai-org/GLM-4.5-Air": {
2709
2766
  "description": "GLM-4.5-Air ist ein speziell für Agentenanwendungen entwickeltes Basismodell mit Mixture-of-Experts-Architektur. Es ist tief optimiert für Werkzeugaufrufe, Web-Browsing, Softwareentwicklung und Frontend-Programmierung und unterstützt nahtlos die Integration in Code-Agenten wie Claude Code und Roo Code. GLM-4.5 verwendet einen hybriden Inferenzmodus und ist für komplexe Schlussfolgerungen sowie den Alltagsgebrauch geeignet."
2767
+ },
2768
+ "zai-org/GLM-4.5V": {
2769
+ "description": "GLM-4.5V ist das neueste visuell-sprachliche Modell (VLM), das von Zhipu AI veröffentlicht wurde. Das Modell basiert auf dem Flaggschiff-Textmodell GLM-4.5-Air mit insgesamt 106 Milliarden Parametern und 12 Milliarden Aktivierungsparametern und verwendet eine Mixture-of-Experts-(MoE)-Architektur. Es zielt darauf ab, bei geringeren Inferenzkosten herausragende Leistung zu erzielen. Technisch setzt es die Entwicklungslinie von GLM-4.1V-Thinking fort und führt Innovationen wie die dreidimensionale Rotations-Positionskodierung (3D-RoPE) ein, wodurch die Wahrnehmung und das Schließen über dreidimensionale Raumbeziehungen deutlich verbessert werden. Durch Optimierungen in den Phasen des Pre-Trainings, der überwachten Feinabstimmung und des Reinforcement Learnings ist das Modell in der Lage, verschiedene visuelle Inhalte wie Bilder, Videos und lange Dokumente zu verarbeiten; in 41 öffentlichen multimodalen Benchmarks erreichte es Spitzenwerte unter frei verfügbaren Modellen derselben Klasse. Zudem wurde ein \"Denkmodus\"-Schalter hinzugefügt, der es Nutzern erlaubt, flexibel zwischen schneller Reaktion und tiefgehendem Schlussfolgern zu wählen, um Effizienz und Ergebnisqualität auszubalancieren."
2710
2770
  }
2711
2771
  }
@@ -26,6 +26,9 @@
26
26
  "bedrock": {
27
27
  "description": "Bedrock ist ein Service von Amazon AWS, der sich darauf konzentriert, Unternehmen fortschrittliche KI-Sprach- und visuelle Modelle bereitzustellen. Die Modellfamilie umfasst die Claude-Serie von Anthropic, die Llama 3.1-Serie von Meta und mehr, und bietet eine Vielzahl von Optionen von leichtgewichtig bis hochleistungsfähig, die Textgenerierung, Dialoge, Bildverarbeitung und andere Aufgaben unterstützen und für Unternehmensanwendungen unterschiedlicher Größen und Anforderungen geeignet sind."
28
28
  },
29
+ "bfl": {
30
+ "description": "Ein führendes, an vorderster Front tätiges KI-Forschungslabor, das die visuelle Infrastruktur von morgen gestaltet."
31
+ },
29
32
  "cloudflare": {
30
33
  "description": "Führen Sie von serverlosen GPUs betriebene Machine-Learning-Modelle im globalen Netzwerk von Cloudflare aus."
31
34
  },
@@ -130,6 +130,12 @@
130
130
  },
131
131
  "progress": {
132
132
  "uploadingWithCount": "{{completed}}/{{total}} uploaded"
133
+ },
134
+ "validation": {
135
+ "fileSizeExceeded": "File size exceeds the maximum allowed",
136
+ "fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) exceeds the maximum allowed size of {{maxSize}}",
137
+ "fileSizeExceededMultiple": "{{count}} files exceed the maximum allowed size of {{maxSize}}: {{fileList}}",
138
+ "imageCountExceeded": "Maximum number of images exceeded"
133
139
  }
134
140
  },
135
141
  "OllamaSetupGuide": {
@@ -85,6 +85,17 @@
85
85
  "CreateMessageError": "Sorry, the message could not be sent successfully. Please copy the content and try sending it again. This message will not be retained after refreshing the page.",
86
86
  "ExceededContextWindow": "The current request content exceeds the length that the model can handle. Please reduce the amount of content and try again.",
87
87
  "FreePlanLimit": "You are currently a free user and cannot use this feature. Please upgrade to a paid plan to continue using it.",
88
+ "GoogleAIBlockReason": {
89
+ "BLOCKLIST": "Your content contains prohibited terms. Please review and modify your input, then try again.",
90
+ "IMAGE_SAFETY": "The generated image content was blocked for safety reasons. Please try changing your image generation request.",
91
+ "LANGUAGE": "The language you used is not currently supported. Please try again in English or another supported language.",
92
+ "OTHER": "The content was blocked for an unknown reason. Please try rephrasing your request.",
93
+ "PROHIBITED_CONTENT": "Your request may contain prohibited content. Please adjust your request to comply with the usage guidelines.",
94
+ "RECITATION": "Your content was blocked due to potential copyright concerns. Please try using original content or rephrase your request.",
95
+ "SAFETY": "Your content was blocked by safety policies. Please modify your request to avoid potentially harmful or inappropriate content.",
96
+ "SPII": "Your content may contain sensitive personal identifying information. To protect privacy, please remove such information and try again.",
97
+ "default": "Content blocked: {{blockReason}}. Please adjust your request and try again."
98
+ },
88
99
  "InsufficientQuota": "Sorry, the quota for this key has been reached. Please check your account balance or increase the key quota and try again.",
89
100
  "InvalidAccessCode": "Invalid access code or empty. Please enter the correct access code or add a custom API Key.",
90
101
  "InvalidBedrockCredentials": "Bedrock authentication failed. Please check the AccessKeyId/SecretAccessKey and retry.",
@@ -113,18 +124,6 @@
113
124
  "PluginServerError": "Plugin server request returned an error. Please check your plugin manifest file, plugin configuration, or server implementation based on the error information below",
114
125
  "PluginSettingsInvalid": "This plugin needs to be correctly configured before it can be used. Please check if your configuration is correct",
115
126
  "ProviderBizError": "Error requesting {{provider}} service, please troubleshoot or retry based on the following information",
116
-
117
- "GoogleAIBlockReason": {
118
- "BLOCKLIST": "Your content contains prohibited terms. Please review and modify your input before retrying.",
119
- "IMAGE_SAFETY": "Generated image content was blocked for safety reasons. Please try modifying your image generation request.",
120
- "LANGUAGE": "The language you used is not supported. Please try using English or other supported languages.",
121
- "OTHER": "Content was blocked for unknown reasons. Please try rephrasing your request or contact technical support.",
122
- "PROHIBITED_CONTENT": "Your content may contain prohibited content types. Please adjust your request to ensure it complies with usage guidelines.",
123
- "RECITATION": "Your content was blocked due to potential copyright issues. Please try using original content or rephrasing your request.",
124
- "SAFETY": "Your content was blocked due to safety policies. Please try adjusting your request to avoid potentially harmful or inappropriate content.",
125
- "SPII": "Your content may contain sensitive personally identifiable information. For privacy protection, please remove relevant sensitive information before retrying.",
126
- "default": "Content was blocked: {{blockReason}}. Please adjust your request content and try again."
127
- },
128
127
  "QuotaLimitReached": "We apologize, but the current token usage or number of requests has reached the quota limit for this key. Please increase the quota for this key or try again later.",
129
128
  "StreamChunkError": "Error parsing the message chunk of the streaming request. Please check if the current API interface complies with the standard specifications, or contact your API provider for assistance.",
130
129
  "SubscriptionKeyMismatch": "We apologize for the inconvenience. Due to a temporary system malfunction, your current subscription usage is inactive. Please click the button below to restore your subscription, or contact us via email for support.",
@@ -332,12 +332,21 @@
332
332
  "Qwen/Qwen3-30B-A3B-Instruct-2507": {
333
333
  "description": "Qwen3-30B-A3B-Instruct-2507 is an updated version of the Qwen3-30B-A3B non-thinking mode. It is a Mixture of Experts (MoE) model with a total of 30.5 billion parameters and 3.3 billion active parameters. The model features key enhancements across multiple areas, including significant improvements in instruction following, logical reasoning, text comprehension, mathematics, science, coding, and tool usage. Additionally, it has made substantial progress in covering long-tail multilingual knowledge and better aligns with user preferences in subjective and open-ended tasks, enabling it to generate more helpful responses and higher-quality text. Furthermore, its long-text comprehension capability has been extended to 256K tokens. This model supports only the non-thinking mode and does not generate `<think></think>` tags in its output."
334
334
  },
335
+ "Qwen/Qwen3-30B-A3B-Thinking-2507": {
336
+ "description": "Qwen3-30B-A3B-Thinking-2507 is the latest “thinking” model in the Qwen3 series released by Alibaba’s Tongyi Qianwen team. As a mixture-of-experts (MoE) model with 30.5 billion total parameters and 3.3 billion active parameters, it is designed to improve capabilities for handling complex tasks. The model demonstrates significant performance gains on academic benchmarks requiring logical reasoning, mathematics, science, programming, and domain expertise. At the same time, its general abilities—such as instruction following, tool use, text generation, and alignment with human preferences—have been substantially enhanced. The model natively supports long-context understanding of 256K tokens and can scale up to 1 million tokens. This version is tailored for “thinking mode,” intended to solve highly complex problems through detailed step-by-step reasoning, and it also exhibits strong agent capabilities."
337
+ },
335
338
  "Qwen/Qwen3-32B": {
336
339
  "description": "Qwen3 is a next-generation model with significantly enhanced capabilities, achieving industry-leading levels in reasoning, general tasks, agent functions, and multilingual support, with a switchable thinking mode."
337
340
  },
338
341
  "Qwen/Qwen3-8B": {
339
342
  "description": "Qwen3 is a next-generation model with significantly enhanced capabilities, achieving industry-leading levels in reasoning, general tasks, agent functions, and multilingual support, with a switchable thinking mode."
340
343
  },
344
+ "Qwen/Qwen3-Coder-30B-A3B-Instruct": {
345
+ "description": "Qwen3-Coder-30B-A3B-Instruct is a code model in the Qwen3 series developed by Alibaba's Tongyi Qianwen team. As a streamlined and optimized model, it focuses on enhancing code-handling capabilities while maintaining high performance and efficiency. The model demonstrates notable advantages among open-source models on complex tasks such as agentic coding, automated browser operations, and tool invocation. It natively supports a long context of 256K tokens and can be extended up to 1M tokens, enabling better understanding and processing at the codebase level. Additionally, the model provides robust agentic coding support for platforms like Qwen Code and CLINE, and it employs a dedicated function-calling format."
346
+ },
347
+ "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
348
+ "description": "Qwen3-Coder-480B-A35B-Instruct, released by Alibaba, is the most agentic code model to date. It is a mixture-of-experts (MoE) model with 480 billion total parameters and 35 billion active parameters, striking a balance between efficiency and performance. The model natively supports a 256K (~260k) token context window and can be extended to 1,000,000 tokens through extrapolation methods such as YaRN, enabling it to handle large codebases and complex programming tasks. Qwen3-Coder is designed for agent-style coding workflows: it not only generates code but can autonomously interact with development tools and environments to solve complex programming problems. On multiple benchmarks for coding and agent tasks, this model achieves top-tier results among open-source models, with performance comparable to leading models like Claude Sonnet 4."
349
+ },
341
350
  "Qwen2-72B-Instruct": {
342
351
  "description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities."
343
352
  },
@@ -1103,12 +1112,27 @@
1103
1112
  "flux-dev": {
1104
1113
  "description": "FLUX.1 [dev] is an open-source weight and fine-tuned model for non-commercial applications. It maintains image quality and instruction-following capabilities close to the FLUX professional version while offering higher operational efficiency. Compared to standard models of the same size, it is more resource-efficient."
1105
1114
  },
1115
+ "flux-kontext-max": {
1116
+ "description": "State-of-the-art contextual image generation and editing — combining text and images for precise, coherent results."
1117
+ },
1118
+ "flux-kontext-pro": {
1119
+ "description": "State-of-the-art contextual image generation and editing — combining text and images for precise, coherent results."
1120
+ },
1106
1121
  "flux-kontext/dev": {
1107
1122
  "description": "FLUX.1 model focused on image editing tasks, supporting both text and image inputs."
1108
1123
  },
1109
1124
  "flux-merged": {
1110
1125
  "description": "The FLUX.1-merged model combines the deep features explored during the development phase of “DEV” with the high-speed execution advantages represented by “Schnell.” This integration not only pushes the model's performance boundaries but also broadens its application scope."
1111
1126
  },
1127
+ "flux-pro": {
1128
+ "description": "A top-tier commercial AI image generation model — delivering unparalleled image quality and a wide variety of outputs."
1129
+ },
1130
+ "flux-pro-1.1": {
1131
+ "description": "Upgraded professional-grade AI image generation model — delivers outstanding image quality and precise adherence to prompts."
1132
+ },
1133
+ "flux-pro-1.1-ultra": {
1134
+ "description": "Ultra-high-resolution AI image generation — supports up to 4-megapixel output, producing ultra-high-definition images in under 10 seconds."
1135
+ },
1112
1136
  "flux-pro/kontext": {
1113
1137
  "description": "FLUX.1 Kontext [pro] can process text and reference images as input, seamlessly enabling targeted local edits and complex overall scene transformations."
1114
1138
  },
@@ -1193,6 +1217,9 @@
1193
1217
  "gemini-2.5-flash": {
1194
1218
  "description": "Gemini 2.5 Flash is Google's most cost-effective model, offering comprehensive capabilities."
1195
1219
  },
1220
+ "gemini-2.5-flash-image-preview": {
1221
+ "description": "Gemini 2.5 Flash Image Preview is Google's newest, fastest, and most efficient native multimodal model, enabling you to generate and edit images through conversation."
1222
+ },
1196
1223
  "gemini-2.5-flash-lite": {
1197
1224
  "description": "Gemini 2.5 Flash-Lite is Google's smallest and most cost-effective model, designed for large-scale use."
1198
1225
  },
@@ -1295,6 +1322,9 @@
1295
1322
  "glm-4.5-x": {
1296
1323
  "description": "The high-speed version of GLM-4.5, combining strong performance with generation speeds up to 100 tokens per second."
1297
1324
  },
1325
+ "glm-4.5v": {
1326
+ "description": "Zhipu's next-generation visual reasoning model is built on a Mixture-of-Experts (MoE) architecture. With 106B total parameters and 12B activated parameters, it achieves state-of-the-art performance among open-source multimodal models of similar scale across various benchmarks, supporting common tasks such as image, video, document understanding, and GUI-related tasks."
1327
+ },
1298
1328
  "glm-4v": {
1299
1329
  "description": "GLM-4V provides strong image understanding and reasoning capabilities, supporting various visual tasks."
1300
1330
  },
@@ -1434,7 +1464,7 @@
1434
1464
  "description": "GPT-4.1 nano provides a balance of intelligence, speed, and cost, making it an appealing model for numerous applications."
1435
1465
  },
1436
1466
  "gpt-4.5-preview": {
1437
- "description": "The research preview of GPT-4.5, our largest and most powerful GPT model to date. It possesses extensive world knowledge and better understands user intent, excelling in creative tasks and autonomous planning. GPT-4.5 accepts both text and image inputs and generates text outputs (including structured outputs). It supports key developer features such as function calling, batch API, and streaming output. GPT-4.5 particularly shines in tasks that require creativity, open-ended thinking, and dialogue, such as writing, learning, or exploring new ideas. Knowledge cutoff date is October 2023."
1467
+ "description": "GPT-4.5-preview is the latest general-purpose model, offering extensive world knowledge and an improved understanding of user intent. It excels at creative tasks and agent-style planning. The model's knowledge cutoff is October 2023."
1438
1468
  },
1439
1469
  "gpt-4o": {
1440
1470
  "description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support."
@@ -1637,9 +1667,18 @@
1637
1667
  "image-01-live": {
1638
1668
  "description": "An image generation model with delicate visual performance, supporting text-to-image generation and style setting."
1639
1669
  },
1670
+ "imagen-4.0-fast-generate-001": {
1671
+ "description": "Imagen 4th-generation text-to-image model, Fast version"
1672
+ },
1673
+ "imagen-4.0-generate-001": {
1674
+ "description": "Imagen 4th-generation text-to-image model series"
1675
+ },
1640
1676
  "imagen-4.0-generate-preview-06-06": {
1641
1677
  "description": "Imagen 4th generation text-to-image model series"
1642
1678
  },
1679
+ "imagen-4.0-ultra-generate-001": {
1680
+ "description": "Imagen 4th-generation text-to-image model, Ultra version"
1681
+ },
1643
1682
  "imagen-4.0-ultra-generate-preview-06-06": {
1644
1683
  "description": "Imagen 4th generation text-to-image model series Ultra version"
1645
1684
  },
@@ -1679,6 +1718,9 @@
1679
1718
  "kimi-k2-0711-preview": {
1680
1719
  "description": "kimi-k2 is a MoE architecture base model with powerful coding and agent capabilities, totaling 1 trillion parameters with 32 billion active parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
1681
1720
  },
1721
+ "kimi-k2-turbo-preview": {
1722
+ "description": "Kimi-K2 is a Mixture-of-Experts (MoE) foundation model with exceptional coding and agent capabilities, featuring 1T total parameters and 32B activated parameters. In benchmark evaluations across core categories — general knowledge reasoning, programming, mathematics, and agent tasks — the K2 model outperforms other leading open-source models."
1723
+ },
1682
1724
  "kimi-latest": {
1683
1725
  "description": "The Kimi Smart Assistant product uses the latest Kimi large model, which may include features that are not yet stable. It supports image understanding and will automatically select the 8k/32k/128k model as the billing model based on the length of the request context."
1684
1726
  },
@@ -1763,6 +1805,9 @@
1763
1805
  "llava:34b": {
1764
1806
  "description": "LLaVA is a multimodal model that combines a visual encoder with Vicuna for powerful visual and language understanding."
1765
1807
  },
1808
+ "magistral-medium-latest": {
1809
+ "description": "Magistral Medium 1.1 is a state-of-the-art inference model released by Mistral AI in July 2025."
1810
+ },
1766
1811
  "mathstral": {
1767
1812
  "description": "MathΣtral is designed for scientific research and mathematical reasoning, providing effective computational capabilities and result interpretation."
1768
1813
  },
@@ -2094,7 +2139,7 @@
2094
2139
  "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023."
2095
2140
  },
2096
2141
  "o1-preview": {
2097
- "description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023."
2142
+ "description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. Ideal for applications that require deep contextual understanding and autonomous workflows."
2098
2143
  },
2099
2144
  "o1-pro": {
2100
2145
  "description": "The o1 series models are trained with reinforcement learning to think before answering and perform complex reasoning tasks. The o1-pro model uses more computational resources for deeper thinking, consistently delivering higher-quality responses."
@@ -2213,8 +2258,14 @@
2213
2258
  "qwen-coder-turbo-latest": {
2214
2259
  "description": "The Tongyi Qianwen Coder model."
2215
2260
  },
2261
+ "qwen-flash": {
2262
+ "description": "The Tongyi Qianwen Flash series offers the fastest, most cost-effective models, suitable for simple tasks."
2263
+ },
2216
2264
  "qwen-image": {
2217
- "description": "A powerful raw image model from the Qwen team, featuring impressive Chinese text generation capabilities and diverse visual styles."
2265
+ "description": "Qwen-Image is a general-purpose image generation model that supports a wide range of artistic styles and is particularly adept at rendering complex text, especially Chinese and English. The model supports multi-line layouts, paragraph-level text generation, and fine-grained detail rendering, enabling complex mixed text-and-image layout designs."
2266
+ },
2267
+ "qwen-image-edit": {
2268
+ "description": "A professional image-editing model released by the Qwen team, supporting semantic editing and appearance editing. It can precisely edit Chinese and English text and perform high-quality image edits such as style transfer and object rotation."
2218
2269
  },
2219
2270
  "qwen-long": {
2220
2271
  "description": "Qwen is a large-scale language model that supports long text contexts and dialogue capabilities based on long documents and multiple documents."
@@ -2241,7 +2292,7 @@
2241
2292
  "description": "Qwen Plus is an enhanced large-scale language model supporting input in various languages including Chinese and English."
2242
2293
  },
2243
2294
  "qwen-turbo": {
2244
- "description": "Qwen Turbo is a large-scale language model supporting input in various languages including Chinese and English."
2295
+ "description": "Tongyi Qianwen Turbo will no longer receive updates; it is recommended to switch to Tongyi Qianwen Flash. Tongyi Qianwen is an ultra-large language model that supports input in Chinese, English, and other languages."
2245
2296
  },
2246
2297
  "qwen-vl-chat-v1": {
2247
2298
  "description": "Qwen VL supports flexible interaction methods, including multi-image, multi-turn Q&A, and creative capabilities."
@@ -2558,9 +2609,15 @@
2558
2609
  "step-2x-large": {
2559
2610
  "description": "Step Star next-generation image generation model, focusing on image generation tasks. It can generate high-quality images based on user-provided text descriptions. The new model produces more realistic textures and stronger Chinese and English text generation capabilities."
2560
2611
  },
2612
+ "step-3": {
2613
+ "description": "This model has powerful visual perception and advanced reasoning capabilities. It can accurately handle complex cross-domain knowledge comprehension, perform integrated analysis of mathematical and visual information, and solve a wide range of visual analysis tasks encountered in everyday life."
2614
+ },
2561
2615
  "step-r1-v-mini": {
2562
2616
  "description": "This model is a powerful reasoning model with strong image understanding capabilities, able to process both image and text information, generating text content after deep reasoning. It excels in visual reasoning while also possessing first-tier capabilities in mathematics, coding, and text reasoning. The context length is 100k."
2563
2617
  },
2618
+ "stepfun-ai/step3": {
2619
+ "description": "Step3 is a cutting-edge multimodal reasoning model released by StepFun. It is built on a mixture-of-experts (MoE) architecture with 321B total parameters and 38B active parameters. The model adopts an end-to-end design to minimize decoding cost while delivering top-tier performance in visual-language reasoning. Through the combined design of Multi-Matrix Factorized Attention (MFA) and Attention-FFN Decoupling (AFD), Step3 maintains exceptional efficiency on both high-end and low-end accelerators. During pretraining, Step3 processed over 20 trillion text tokens and 4 trillion image-text mixed tokens, covering more than a dozen languages. The model achieves leading performance among open-source models across benchmarks in mathematics, code, and multimodal tasks."
2620
+ },
2564
2621
  "taichu_llm": {
2565
2622
  "description": "The ZD Taichu language model possesses strong language understanding capabilities and excels in text creation, knowledge Q&A, code programming, mathematical calculations, logical reasoning, sentiment analysis, and text summarization. It innovatively combines large-scale pre-training with rich knowledge from multiple sources, continuously refining algorithmic techniques and absorbing new knowledge in vocabulary, structure, grammar, and semantics from vast text data, resulting in an evolving model performance. It provides users with more convenient information and services, as well as a more intelligent experience."
2566
2623
  },
@@ -2707,5 +2764,8 @@
2707
2764
  },
2708
2765
  "zai-org/GLM-4.5-Air": {
2709
2766
  "description": "GLM-4.5-Air is a foundational model designed specifically for agent applications, using a Mixture-of-Experts (MoE) architecture. It is deeply optimized for tool invocation, web browsing, software engineering, and front-end programming, supporting seamless integration with code agents like Claude Code and Roo Code. GLM-4.5 employs a hybrid inference mode, adaptable to complex reasoning and everyday use scenarios."
2767
+ },
2768
+ "zai-org/GLM-4.5V": {
2769
+ "description": "GLM-4.5V is the latest-generation vision-language model (VLM) released by Zhipu AI. It is built on the flagship text model GLM-4.5-Air, which has 106B total parameters and 12B active parameters, and adopts a Mixture-of-Experts (MoE) architecture to deliver outstanding performance at reduced inference cost. Technically, GLM-4.5V continues the trajectory of GLM-4.1V-Thinking and introduces innovations such as three-dimensional rotary position encoding (3D-RoPE), significantly improving perception and reasoning of three-dimensional spatial relationships. Through optimizations across pretraining, supervised fine-tuning, and reinforcement learning stages, the model can handle a wide range of visual content including images, video, and long documents, and has achieved top-tier performance among comparable open-source models across 41 public multimodal benchmarks. The model also adds a \"Thinking Mode\" toggle that lets users flexibly choose between fast responses and deep reasoning to balance efficiency and effectiveness."
2710
2770
  }
2711
2771
  }
@@ -26,6 +26,9 @@
26
26
  "bedrock": {
27
27
  "description": "Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs."
28
28
  },
29
+ "bfl": {
30
+ "description": "A leading, cutting-edge artificial intelligence research lab building the visual infrastructure of tomorrow."
31
+ },
29
32
  "cloudflare": {
30
33
  "description": "Run serverless GPU-powered machine learning models on Cloudflare's global network."
31
34
  },
@@ -1,4 +1,9 @@
1
1
  {
2
+ "ArgsInput": {
3
+ "addArgument": "Añadir argumento",
4
+ "argumentPlaceholder": "Argumento {{index}}",
5
+ "enterFirstArgument": "Introduce el primer argumento..."
6
+ },
2
7
  "DragUpload": {
3
8
  "dragDesc": "Arrastra los archivos aquí, se admite la carga de múltiples imágenes.",
4
9
  "dragFileDesc": "Arrastra imágenes y archivos aquí, se admite la carga de múltiples imágenes y archivos.",
@@ -125,6 +130,12 @@
125
130
  },
126
131
  "progress": {
127
132
  "uploadingWithCount": "{{completed}}/{{total}} subidas"
133
+ },
134
+ "validation": {
135
+ "fileSizeExceeded": "El tamaño del archivo supera el límite permitido",
136
+ "fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) supera el tamaño máximo permitido de {{maxSize}}",
137
+ "fileSizeExceededMultiple": "{{count}} archivos superan el tamaño máximo permitido de {{maxSize}}: {{fileList}}",
138
+ "imageCountExceeded": "Se ha superado el límite de imágenes permitido"
128
139
  }
129
140
  },
130
141
  "OllamaSetupGuide": {
@@ -85,6 +85,17 @@
85
85
  "CreateMessageError": "Lo sentimos, el mensaje no se pudo enviar correctamente. Por favor, copia el contenido y vuelve a enviarlo. Después de actualizar la página, este mensaje no se conservará.",
86
86
  "ExceededContextWindow": "El contenido de la solicitud actual excede la longitud que el modelo puede procesar. Por favor, reduzca la cantidad de contenido y vuelva a intentarlo.",
87
87
  "FreePlanLimit": "Actualmente eres un usuario gratuito y no puedes utilizar esta función. Por favor, actualiza a un plan de pago para seguir utilizando.",
88
+ "GoogleAIBlockReason": {
89
+ "BLOCKLIST": "Su contenido contiene palabras prohibidas. Por favor, compruebe y modifique su entrada e inténtelo de nuevo.",
90
+ "IMAGE_SAFETY": "El contenido de la imagen generada ha sido bloqueado por motivos de seguridad. Intente modificar su solicitud de generación de imágenes.",
91
+ "LANGUAGE": "El idioma que está utilizando no es compatible por el momento. Intente volver a preguntar en inglés u otro idioma compatible.",
92
+ "OTHER": "El contenido ha sido bloqueado por una razón desconocida. Intente reformular su solicitud.",
93
+ "PROHIBITED_CONTENT": "Su solicitud puede contener contenido prohibido. Ajústela para garantizar que cumple las políticas de uso.",
94
+ "RECITATION": "Su contenido ha sido bloqueado porque podría implicar problemas de derechos de autor. Intente usar contenido original o reformular su solicitud.",
95
+ "SAFETY": "Su contenido ha sido bloqueado por las políticas de seguridad. Intente ajustar su solicitud para evitar contenidos potencialmente dañinos o inapropiados.",
96
+ "SPII": "Su contenido puede contener información personal sensible. Para proteger la privacidad, elimine la información sensible antes de intentar de nuevo.",
97
+ "default": "Contenido bloqueado: {{blockReason}}。请调整您的请求内容后重试。"
98
+ },
88
99
  "InsufficientQuota": "Lo sentimos, la cuota de esta clave ha alcanzado su límite. Por favor, verifique si el saldo de su cuenta es suficiente o aumente la cuota de la clave y vuelva a intentarlo.",
89
100
  "InvalidAccessCode": "La contraseña no es válida o está vacía. Por favor, introduce una contraseña de acceso válida o añade una clave API personalizada",
90
101
  "InvalidBedrockCredentials": "La autenticación de Bedrock no se ha completado con éxito, por favor, verifica AccessKeyId/SecretAccessKey e inténtalo de nuevo",