@lobehub/chat 1.115.0 → 1.116.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (98) hide show
  1. package/.cursor/rules/add-provider-doc.mdc +183 -0
  2. package/.env.example +8 -0
  3. package/.github/workflows/release.yml +3 -3
  4. package/.github/workflows/test.yml +3 -7
  5. package/CHANGELOG.md +25 -0
  6. package/CLAUDE.md +6 -6
  7. package/Dockerfile +5 -1
  8. package/Dockerfile.database +5 -1
  9. package/Dockerfile.pglite +5 -1
  10. package/changelog/v1.json +9 -0
  11. package/docs/development/basic/setup-development.mdx +10 -13
  12. package/docs/development/basic/setup-development.zh-CN.mdx +9 -12
  13. package/docs/self-hosting/environment-variables/model-provider.mdx +27 -2
  14. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +27 -2
  15. package/docs/usage/providers/bfl.mdx +68 -0
  16. package/docs/usage/providers/bfl.zh-CN.mdx +67 -0
  17. package/locales/ar/components.json +11 -0
  18. package/locales/ar/error.json +11 -0
  19. package/locales/ar/models.json +64 -4
  20. package/locales/ar/providers.json +3 -0
  21. package/locales/bg-BG/components.json +11 -0
  22. package/locales/bg-BG/error.json +11 -0
  23. package/locales/bg-BG/models.json +64 -4
  24. package/locales/bg-BG/providers.json +3 -0
  25. package/locales/de-DE/components.json +11 -0
  26. package/locales/de-DE/error.json +11 -12
  27. package/locales/de-DE/models.json +64 -4
  28. package/locales/de-DE/providers.json +3 -0
  29. package/locales/en-US/components.json +6 -0
  30. package/locales/en-US/error.json +11 -12
  31. package/locales/en-US/models.json +64 -4
  32. package/locales/en-US/providers.json +3 -0
  33. package/locales/es-ES/components.json +11 -0
  34. package/locales/es-ES/error.json +11 -0
  35. package/locales/es-ES/models.json +64 -6
  36. package/locales/es-ES/providers.json +3 -0
  37. package/locales/fa-IR/components.json +11 -0
  38. package/locales/fa-IR/error.json +11 -0
  39. package/locales/fa-IR/models.json +64 -4
  40. package/locales/fa-IR/providers.json +3 -0
  41. package/locales/fr-FR/components.json +11 -0
  42. package/locales/fr-FR/error.json +11 -12
  43. package/locales/fr-FR/models.json +64 -4
  44. package/locales/fr-FR/providers.json +3 -0
  45. package/locales/it-IT/components.json +11 -0
  46. package/locales/it-IT/error.json +11 -0
  47. package/locales/it-IT/models.json +64 -4
  48. package/locales/it-IT/providers.json +3 -0
  49. package/locales/ja-JP/components.json +11 -0
  50. package/locales/ja-JP/error.json +11 -12
  51. package/locales/ja-JP/models.json +64 -4
  52. package/locales/ja-JP/providers.json +3 -0
  53. package/locales/ko-KR/components.json +11 -0
  54. package/locales/ko-KR/error.json +11 -12
  55. package/locales/ko-KR/models.json +64 -6
  56. package/locales/ko-KR/providers.json +3 -0
  57. package/locales/nl-NL/components.json +11 -0
  58. package/locales/nl-NL/error.json +11 -0
  59. package/locales/nl-NL/models.json +62 -4
  60. package/locales/nl-NL/providers.json +3 -0
  61. package/locales/pl-PL/components.json +11 -0
  62. package/locales/pl-PL/error.json +11 -0
  63. package/locales/pl-PL/models.json +64 -4
  64. package/locales/pl-PL/providers.json +3 -0
  65. package/locales/pt-BR/components.json +11 -0
  66. package/locales/pt-BR/error.json +11 -0
  67. package/locales/pt-BR/models.json +64 -4
  68. package/locales/pt-BR/providers.json +3 -0
  69. package/locales/ru-RU/components.json +11 -0
  70. package/locales/ru-RU/error.json +11 -0
  71. package/locales/ru-RU/models.json +64 -4
  72. package/locales/ru-RU/providers.json +3 -0
  73. package/locales/tr-TR/components.json +11 -0
  74. package/locales/tr-TR/error.json +11 -0
  75. package/locales/tr-TR/models.json +64 -4
  76. package/locales/tr-TR/providers.json +3 -0
  77. package/locales/vi-VN/components.json +11 -0
  78. package/locales/vi-VN/error.json +11 -0
  79. package/locales/vi-VN/models.json +64 -4
  80. package/locales/vi-VN/providers.json +3 -0
  81. package/locales/zh-CN/components.json +6 -0
  82. package/locales/zh-CN/error.json +11 -0
  83. package/locales/zh-CN/models.json +64 -4
  84. package/locales/zh-CN/providers.json +3 -0
  85. package/locales/zh-TW/components.json +11 -0
  86. package/locales/zh-TW/error.json +11 -12
  87. package/locales/zh-TW/models.json +64 -6
  88. package/locales/zh-TW/providers.json +3 -0
  89. package/package.json +1 -1
  90. package/packages/model-runtime/src/google/index.ts +3 -0
  91. package/packages/model-runtime/src/qwen/createImage.test.ts +0 -19
  92. package/packages/model-runtime/src/qwen/createImage.ts +1 -27
  93. package/packages/model-runtime/src/utils/streams/google-ai.ts +26 -14
  94. package/packages/types/src/aiModel.ts +2 -1
  95. package/src/config/aiModels/google.ts +22 -1
  96. package/src/config/aiModels/qwen.ts +2 -2
  97. package/src/config/aiModels/vertexai.ts +22 -0
  98. package/.cursor/rules/debug.mdc +0 -193
@@ -332,12 +332,21 @@
332
332
  "Qwen/Qwen3-30B-A3B-Instruct-2507": {
333
333
  "description": "Qwen3-30B-A3B-Instruct-2507 is een bijgewerkte versie van Qwen3-30B-A3B zonder denkmodus. Dit is een hybride expert (MoE) model met in totaal 30,5 miljard parameters en 3,3 miljard actieve parameters. Het model heeft belangrijke verbeteringen ondergaan op meerdere gebieden, waaronder een aanzienlijke verbetering van het volgen van instructies, logisch redeneren, tekstbegrip, wiskunde, wetenschap, codering en het gebruik van tools. Tegelijkertijd heeft het substantiële vooruitgang geboekt in de dekking van meertalige long-tail kennis en kan het beter afstemmen op de voorkeuren van gebruikers bij subjectieve en open taken, waardoor het nuttigere antwoorden en tekst van hogere kwaliteit kan genereren. Bovendien is het vermogen van het model om lange teksten te begrijpen uitgebreid tot 256K. Dit model ondersteunt alleen de niet-denkmodus en genereert geen `<think></think>` tags in de output."
334
334
  },
335
+ "Qwen/Qwen3-30B-A3B-Thinking-2507": {
336
+ "description": "Qwen3-30B-A3B-Thinking-2507 is het nieuwste Thinking-model uit de Qwen3-serie, uitgebracht door het Tongyi Qianwen-team van Alibaba. Als een Mixture of Experts (MoE)-model met in totaal 30,5 miljard parameters en 3,3 miljard activatieparameters, is het gericht op het verbeteren van de verwerking van complexe taken. Het model toont aanzienlijke prestatieverbeteringen op academische benchmarks voor logisch redeneren, wiskunde, wetenschap, programmeren en andere gebieden die menselijke expertise vereisen. Tegelijkertijd zijn algemene capaciteiten zoals het opvolgen van instructies, het gebruik van tools, tekstgeneratie en afstemming op menselijke voorkeuren ook sterk verbeterd. Het model ondersteunt van nature lange contexten tot 256K tokens en is uitbreidbaar tot 1 miljoen tokens. Deze versie is speciaal ontworpen voor de 'Thinking'-modus, met als doel zeer complexe taken op te lossen door middel van gedetailleerde stapsgewijze redenering; ook de Agent-capaciteiten presteren uitstekend."
337
+ },
335
338
  "Qwen/Qwen3-32B": {
336
339
  "description": "Qwen3 is een nieuwe generatie Qwen-model met aanzienlijk verbeterde capaciteiten, die op het gebied van redenering, algemeen gebruik, agent en meertaligheid op een leidende positie in de industrie staat, en ondersteunt de schakel tussen denkmodi."
337
340
  },
338
341
  "Qwen/Qwen3-8B": {
339
342
  "description": "Qwen3 is een nieuwe generatie Qwen-model met aanzienlijk verbeterde capaciteiten, die op het gebied van redenering, algemeen gebruik, agent en meertaligheid op een leidende positie in de industrie staat, en ondersteunt de schakel tussen denkmodi."
340
343
  },
344
+ "Qwen/Qwen3-Coder-30B-A3B-Instruct": {
345
+ "description": "Qwen3-Coder-30B-A3B-Instruct is een codemodel uit de Qwen3-serie, ontwikkeld door het Tongyi Qianwen-team van Alibaba. Als een verfijnd en geoptimaliseerd model richt het zich op het verbeteren van codeverwerking, terwijl het hoge prestaties en efficiëntie behoudt. Dit model laat opvallende prestatievoordelen zien ten opzichte van open-source modellen bij complexe taken zoals agent-achtige programmering (Agentic Coding), geautomatiseerde browserbesturing en het aanroepen van tools. Het ondersteunt van nature lange contexten van 256K tokens en is uitbreidbaar tot 1M tokens, waardoor het beter in staat is codebases op schaal te begrijpen en te verwerken. Bovendien biedt dit model krachtige ondersteuning voor agent-gebaseerde codering op platforms zoals Qwen Code en CLINE, en is er een specifiek formaat voor functieaanroepen ontworpen."
346
+ },
347
+ "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
348
+ "description": "Qwen3-Coder-480B-A35B-Instruct is uitgebracht door Alibaba en beschikt tot nu toe over de meest geavanceerde agentische mogelijkheden van alle codemodellen. Het is een Mixture-of-Experts (MoE)-model met 480 miljard totale parameters en 35 miljard actieve parameters, dat een balans vindt tussen efficiëntie en prestaties. Het model ondersteunt van nature een contextlengte van 256K (ongeveer 260.000) tokens en kan via extrapolatiemethoden zoals YaRN worden opgeschaald tot 1 miljoen tokens, waardoor het omvangrijke codebases en complexe programmeertaken aankan. Qwen3-Coder is ontworpen voor agentachtige codeerworkflows: het kan niet alleen code genereren, maar ook autonoom interacteren met ontwikkeltools en -omgevingen om complexe programmeerproblemen op te lossen. In diverse benchmarks voor codering en agenttaken behaalt dit model topresultaten onder open-source modellen en zijn de prestaties vergelijkbaar met toonaangevende modellen zoals Claude Sonnet 4."
349
+ },
341
350
  "Qwen2-72B-Instruct": {
342
351
  "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen."
343
352
  },
@@ -1103,12 +1112,27 @@
1103
1112
  "flux-dev": {
1104
1113
  "description": "FLUX.1 [dev] is een open-source gewicht en verfijnd model voor niet-commercieel gebruik. Het behoudt een beeldkwaliteit en instructienaleving vergelijkbaar met de professionele versie van FLUX, maar met een hogere operationele efficiëntie. Vergeleken met standaardmodellen van dezelfde grootte is het efficiënter in het gebruik van middelen."
1105
1114
  },
1115
+ "flux-kontext-max": {
1116
+ "description": "De meest geavanceerde contextuele beeldgeneratie en -bewerking — tekst en afbeeldingen combineren voor nauwkeurige, samenhangende resultaten."
1117
+ },
1118
+ "flux-kontext-pro": {
1119
+ "description": "Geavanceerde contextuele beeldgeneratie en -bewerking — tekst en afbeeldingen combineren voor nauwkeurige, samenhangende resultaten."
1120
+ },
1106
1121
  "flux-kontext/dev": {
1107
1122
  "description": "FLUX.1-model gericht op beeldbewerkingsopdrachten, ondersteunt tekst- en beeldinvoer."
1108
1123
  },
1109
1124
  "flux-merged": {
1110
1125
  "description": "Het FLUX.1-merged model combineert de diepgaande kenmerken verkend tijdens de ontwikkelingsfase van \"DEV\" met de hoge uitvoeringssnelheid van \"Schnell\". Deze combinatie verhoogt niet alleen de prestatiegrenzen van het model, maar breidt ook het toepassingsgebied uit."
1111
1126
  },
1127
+ "flux-pro": {
1128
+ "description": "Topklasse commercieel AI-beeldgeneratiemodel — ongeëvenaarde beeldkwaliteit en veelzijdige output."
1129
+ },
1130
+ "flux-pro-1.1": {
1131
+ "description": "Verbeterd professioneel AI-beeldgeneratiemodel — biedt uitstekende beeldkwaliteit en nauwkeurige opvolging van promptinstructies."
1132
+ },
1133
+ "flux-pro-1.1-ultra": {
1134
+ "description": "Ultrahoge resolutie AI-beeldgeneratie — ondersteunt output tot 4 megapixels en genereert binnen 10 seconden Ultra‑HD-afbeeldingen."
1135
+ },
1112
1136
  "flux-pro/kontext": {
1113
1137
  "description": "FLUX.1 Kontext [pro] kan tekst en referentieafbeeldingen als invoer verwerken, waardoor doelgerichte lokale bewerkingen en complexe algehele scèneveranderingen naadloos mogelijk zijn."
1114
1138
  },
@@ -1193,6 +1217,9 @@
1193
1217
  "gemini-2.5-flash": {
1194
1218
  "description": "Gemini 2.5 Flash is het meest kosteneffectieve model van Google en biedt uitgebreide functionaliteiten."
1195
1219
  },
1220
+ "gemini-2.5-flash-image-preview": {
1221
+ "description": "Gemini 2.5 Flash Image Preview is Google's nieuwste, snelste en meest efficiënte native multimodale model. Het stelt u in staat om via gesprekken afbeeldingen te genereren en te bewerken."
1222
+ },
1196
1223
  "gemini-2.5-flash-lite": {
1197
1224
  "description": "Gemini 2.5 Flash-Lite is het kleinste en meest kosteneffectieve model van Google, speciaal ontworpen voor grootschalig gebruik."
1198
1225
  },
@@ -1295,6 +1322,9 @@
1295
1322
  "glm-4.5-x": {
1296
1323
  "description": "De snelle versie van GLM-4.5, met krachtige prestaties en een generatie snelheid tot 100 tokens per seconde."
1297
1324
  },
1325
+ "glm-4.5v": {
1326
+ "description": "Zhipu's nieuwe generatie visueel redeneermodel, gebaseerd op een MOE-architectuur, beschikt over in totaal 106 miljard parameters en 12 miljard activatieparameters, en behaalt op diverse benchmarks state-of-the-art (SOTA)-prestaties onder open-source multimodale modellen van vergelijkbaar internationaal niveau. Het dekt veelvoorkomende taken zoals beeld-, video- en documentbegrip en GUI-taken."
1327
+ },
1298
1328
  "glm-4v": {
1299
1329
  "description": "GLM-4V biedt krachtige beeldbegrip- en redeneercapaciteiten, ondersteunt verschillende visuele taken."
1300
1330
  },
@@ -1434,7 +1464,7 @@
1434
1464
  "description": "GPT-4.1 mini biedt een balans tussen intelligentie, snelheid en kosten, waardoor het een aantrekkelijk model is voor veel gebruikssituaties."
1435
1465
  },
1436
1466
  "gpt-4.5-preview": {
1437
- "description": "De onderzoekspreview van GPT-4.5, ons grootste en krachtigste GPT-model tot nu toe. Het heeft een uitgebreide wereldkennis en kan de intenties van gebruikers beter begrijpen, waardoor het uitblinkt in creatieve taken en autonome planning. GPT-4.5 accepteert tekst- en afbeeldingsinvoer en genereert tekstuitvoer (inclusief gestructureerde uitvoer). Het ondersteunt belangrijke ontwikkelaarsfuncties zoals functieaanroepen, batch-API's en streaminguitvoer. In taken die creativiteit, open denken en dialoog vereisen (zoals schrijven, leren of het verkennen van nieuwe ideeën), presteert GPT-4.5 bijzonder goed. De kennis is bijgewerkt tot oktober 2023."
1467
+ "description": "GPT-4.5-preview is het nieuwste generieke model, met diepgaande wereldkennis en een beter begrip van de intenties van gebruikers. Het blinkt uit in creatieve taken en bij het plannen van agenten. De kennis van dit model is actueel tot oktober 2023."
1438
1468
  },
1439
1469
  "gpt-4o": {
1440
1470
  "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning."
@@ -1637,9 +1667,18 @@
1637
1667
  "image-01-live": {
1638
1668
  "description": "Beeldgeneratiemodel met fijne beeldweergave, ondersteunt tekst-naar-beeld en stijlinstellingen."
1639
1669
  },
1670
+ "imagen-4.0-fast-generate-001": {
1671
+ "description": "Imagen vierde generatie tekst-naar-beeldmodelserie, snelle versie"
1672
+ },
1673
+ "imagen-4.0-generate-001": {
1674
+ "description": "Imagen 4e generatie tekst-naar-beeldmodelserie"
1675
+ },
1640
1676
  "imagen-4.0-generate-preview-06-06": {
1641
1677
  "description": "Imagen 4e generatie tekst-naar-beeld modelserie"
1642
1678
  },
1679
+ "imagen-4.0-ultra-generate-001": {
1680
+ "description": "Imagen 4e generatie tekst-naar-beeldmodelserie, Ultra-versie"
1681
+ },
1643
1682
  "imagen-4.0-ultra-generate-preview-06-06": {
1644
1683
  "description": "Imagen 4e generatie tekst-naar-beeld modelserie Ultra versie"
1645
1684
  },
@@ -1679,6 +1718,9 @@
1679
1718
  "kimi-k2-0711-preview": {
1680
1719
  "description": "kimi-k2 is een MoE-architectuurbasis model met krachtige codeer- en agentcapaciteiten, met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. In benchmarktests voor algemene kennisredenering, programmeren, wiskunde en agenttaken overtreft het K2-model andere toonaangevende open-source modellen."
1681
1720
  },
1721
+ "kimi-k2-turbo-preview": {
1722
+ "description": "kimi-k2 is een basismodel met een MoE-architectuur dat beschikt over zeer sterke codeer- en agentcapaciteiten. Het heeft in totaal 1T parameters en 32B actieve parameters. In benchmarktests op belangrijke categorieën zoals algemene kennisredenering, programmeren, wiskunde en agenttaken overtreft het K2-model de prestaties van andere gangbare open-sourcemodellen."
1723
+ },
1682
1724
  "kimi-latest": {
1683
1725
  "description": "Kimi slimme assistent product maakt gebruik van het nieuwste Kimi grote model, dat mogelijk nog niet stabiele functies bevat. Ondersteunt beeldbegrip en kiest automatisch het 8k/32k/128k model als factureringsmodel op basis van de lengte van de context van het verzoek."
1684
1726
  },
@@ -1763,6 +1805,9 @@
1763
1805
  "llava:34b": {
1764
1806
  "description": "LLaVA is een multimodaal model dat visuele encoder en Vicuna combineert, voor krachtige visuele en taalbegrip."
1765
1807
  },
1808
+ "magistral-medium-latest": {
1809
+ "description": "Magistral Medium 1.1 is een toonaangevend inferentiemodel dat door Mistral AI in juli 2025 is uitgebracht."
1810
+ },
1766
1811
  "mathstral": {
1767
1812
  "description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie."
1768
1813
  },
@@ -2094,7 +2139,7 @@
2094
2139
  "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
2095
2140
  },
2096
2141
  "o1-preview": {
2097
- "description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
2142
+ "description": "Gespecialiseerd in geavanceerde redenering en het oplossen van complexe problemen, waaronder wiskundige en wetenschappelijke taken. Zeer geschikt voor toepassingen die een diepgaand begrip van context en autonome workflows vereisen."
2098
2143
  },
2099
2144
  "o1-pro": {
2100
2145
  "description": "De o1-serie modellen zijn getraind met versterkend leren, kunnen nadenken voordat ze antwoorden en complexe redeneertaken uitvoeren. Het o1-pro model gebruikt meer rekenkracht voor diepgaander denken, waardoor het continu betere antwoorden levert."
@@ -2213,8 +2258,14 @@
2213
2258
  "qwen-coder-turbo-latest": {
2214
2259
  "description": "Het Tongyi Qianwen codeermodel."
2215
2260
  },
2261
+ "qwen-flash": {
2262
+ "description": "De Tongyi Qianwen-serie biedt de snelste en uiterst kostenefficiënte modellen, geschikt voor eenvoudige taken."
2263
+ },
2216
2264
  "qwen-image": {
2217
- "description": "Krachtig ruwe beeldmodel van het Qwen-team, met indrukwekkende Chinese tekstgeneratie en diverse visuele stijlen."
2265
+ "description": "Qwen-Image is een veelzijdig beeldgeneratiemodel dat meerdere kunststijlen ondersteunt en uitblinkt in het renderen van complexe tekst, met name het weergeven van Chinese en Engelse tekst. Het model ondersteunt meerregelige lay-outs, tekstgeneratie op paragraafniveau en fijne detaillering, en maakt complexe gemengde tekst-beeldlay-outs mogelijk."
2266
+ },
2267
+ "qwen-image-edit": {
2268
+ "description": "Het Qwen-team heeft een professioneel model voor beeldbewerking uitgebracht dat semantische bewerkingen en visuele aanpassingen ondersteunt. Het kan Chinese en Engelse tekst nauwkeurig bewerken en realiseert hoogwaardige beeldbewerking, zoals stijltransformaties en het roteren van objecten."
2218
2269
  },
2219
2270
  "qwen-long": {
2220
2271
  "description": "Qwen is een grootschalig taalmodel dat lange tekstcontexten ondersteunt, evenals dialoogfunctionaliteit op basis van lange documenten en meerdere documenten."
@@ -2241,7 +2292,7 @@
2241
2292
  "description": "Qwen is een verbeterde versie van het grootschalige taalmodel dat ondersteuning biedt voor verschillende taalinputs zoals Chinees en Engels."
2242
2293
  },
2243
2294
  "qwen-turbo": {
2244
- "description": "Qwen is een grootschalig taalmodel dat ondersteuning biedt voor verschillende taalinputs zoals Chinees en Engels."
2295
+ "description": "通义千问 Turbo wordt voortaan niet meer bijgewerkt. We raden aan om over te schakelen naar 通义千问 Flash. 通义千问 is een extreem grootschalig taalmodel dat invoer in het Chinees, Engels en andere talen ondersteunt."
2245
2296
  },
2246
2297
  "qwen-vl-chat-v1": {
2247
2298
  "description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten."
@@ -2558,9 +2609,13 @@
2558
2609
  "step-2x-large": {
2559
2610
  "description": "De nieuwe generatie Step Star beeldgeneratiemodel, gespecialiseerd in beeldgeneratie. Het kan op basis van door gebruikers aangeleverde tekstbeschrijvingen hoogwaardige beelden genereren. Het nieuwe model produceert realistischere texturen en heeft sterkere Chinese en Engelse tekstgeneratiecapaciteiten."
2560
2611
  },
2612
+ "step-3": {
2613
+ "description": "Dit model beschikt over een krachtige visuele perceptie en geavanceerde redeneervaardigheden. Het kan nauwkeurig complexe, domeinoverstijgende kennis begrijpen, interdisciplinaire analyses uitvoeren tussen wiskundige en visuele informatie, en diverse visuele analyseproblemen uit het dagelijks leven oplossen."
2614
+ },
2561
2615
  "step-r1-v-mini": {
2562
2616
  "description": "Dit model is een krachtig redeneringsmodel met sterke beeldbegripcapaciteiten, in staat om beeld- en tekstinformatie te verwerken en tekstinhoud te genereren na diep nadenken. Dit model presteert uitstekend in visuele redenering en heeft eersteklas wiskundige, code- en tekstredeneringscapaciteiten. De contextlengte is 100k."
2563
2617
  },
2618
+ "stepfun-ai/step3": "Step3 is een geavanceerd multimodaal redeneermodel uitgebracht door StepFun (阶跃星辰). Het is gebouwd op een Mixture-of-Experts (MoE)-architectuur met in totaal 321 miljard (321B) parameters en 38 miljard (38B) actieve parameters. Het model heeft een end-to-end ontwerp dat gericht is op het minimaliseren van decodeerkosten, terwijl het topniveau-prestaties levert bij vision-language redenering. Dankzij de synergie tussen Multi-Matrix Factorized Attention (MFA) en Attention-FFN Decoupling (AFD) behoudt Step3 uitstekende efficiëntie zowel op high-end als low-end accelerators. Tijdens de voortraining verwerkte Step3 meer dan 20 biljoen (20T) teksttokens en 4 biljoen (4T) gecombineerde beeld-tekst-tokens, en bestrijkt daarmee meer dan tien talen. Het model behaalt leidende resultaten onder open-sourcemodellen op verschillende benchmarks, waaronder wiskunde, code en multimodaal.",
2564
2619
  "taichu_llm": {
2565
2620
  "description": "Het Zido Tai Chu-taalmodel heeft een sterke taalbegripcapaciteit en kan tekstcreatie, kennisvragen, codeprogrammering, wiskundige berekeningen, logische redenering, sentimentanalyse, tekstsamenvattingen en meer aan. Het combineert innovatief grote data voortraining met rijke kennis uit meerdere bronnen, door algoritmische technologie continu te verfijnen en voortdurend nieuwe kennis op te nemen uit enorme tekstdata op het gebied van vocabulaire, structuur, grammatica en semantiek, waardoor de modelprestaties voortdurend evolueren. Het biedt gebruikers gemakkelijkere informatie en diensten en een meer intelligente ervaring."
2566
2621
  },
@@ -2707,5 +2762,8 @@
2707
2762
  },
2708
2763
  "zai-org/GLM-4.5-Air": {
2709
2764
  "description": "GLM-4.5-Air is een basis model speciaal ontworpen voor agenttoepassingen, gebruikmakend van een Mixture-of-Experts (MoE) architectuur. Het is diep geoptimaliseerd voor toolaanroepen, web browsing, software engineering en frontend programmeren, en ondersteunt naadloze integratie met code-agents zoals Claude Code en Roo Code. GLM-4.5 gebruikt een hybride redeneermodus en is geschikt voor complexe redenering en dagelijks gebruik."
2765
+ },
2766
+ "zai-org/GLM-4.5V": {
2767
+ "description": "GLM-4.5V is de nieuwste generatie visueel-taalmodel (VLM) uitgebracht door Zhipu AI (智谱 AI). Het model is gebouwd op het vlaggenschip-tekstmodel GLM-4.5-Air, dat beschikt over in totaal 106 miljard parameters en 12 miljard activatieparameters, en maakt gebruik van een mixture-of-experts (MoE)-architectuur, met als doel uitstekende prestaties te leveren tegen lagere inferentie-kosten. Technisch bouwt GLM-4.5V voort op de lijn van GLM-4.1V-Thinking en introduceert innovaties zoals driedimensionale roterende positiecodering (3D-RoPE), wat het vermogen om driedimensionale ruimtelijke relaties waar te nemen en te redeneren aanzienlijk versterkt. Door optimalisaties tijdens pretraining, gecontroleerde fine-tuning en reinforcement learning is het model in staat om diverse visuele inhoud te verwerken, waaronder afbeeldingen, video's en lange documenten, en behaalde het in 41 openbare multimodale benchmarks topprestaties vergeleken met gelijkwaardige open-sourcemodellen. Daarnaast bevat het model een nieuwe 'denkmodus'-schakelaar waarmee gebruikers flexibel kunnen kiezen tussen snelle respons en diepgaande redenering om efficiëntie en effectiviteit in balans te brengen."
2710
2768
  }
2711
2769
  }
@@ -26,6 +26,9 @@
26
26
  "bedrock": {
27
27
  "description": "Bedrock is een dienst van Amazon AWS die zich richt op het bieden van geavanceerde AI-taalmodellen en visuele modellen voor bedrijven. De modellenfamilie omvat de Claude-serie van Anthropic, de Llama 3.1-serie van Meta, en meer, met opties variërend van lichtgewicht tot hoge prestaties, en ondersteunt tekstgeneratie, dialogen, beeldverwerking en meer, geschikt voor bedrijfsapplicaties van verschillende schalen en behoeften."
28
28
  },
29
+ "bfl": {
30
+ "description": "Een toonaangevend, grensverleggend onderzoeksinstituut voor kunstmatige intelligentie dat de visuele infrastructuur van morgen bouwt."
31
+ },
29
32
  "cloudflare": {
30
33
  "description": "Voer machine learning-modellen aan, aangedreven door serverloze GPU's, uit op het wereldwijde netwerk van Cloudflare."
31
34
  },
@@ -1,4 +1,9 @@
1
1
  {
2
+ "ArgsInput": {
3
+ "addArgument": "Dodaj parametr",
4
+ "argumentPlaceholder": "Parametr {{index}}",
5
+ "enterFirstArgument": "Wprowadź pierwszy parametr..."
6
+ },
2
7
  "DragUpload": {
3
8
  "dragDesc": "Przeciągnij pliki tutaj, aby przesłać wiele obrazów.",
4
9
  "dragFileDesc": "Przeciągnij obrazy i pliki tutaj, aby przesłać wiele obrazów i plików.",
@@ -125,6 +130,12 @@
125
130
  },
126
131
  "progress": {
127
132
  "uploadingWithCount": "{{completed}}/{{total}} przesłano"
133
+ },
134
+ "validation": {
135
+ "fileSizeExceeded": "Przekroczono limit rozmiaru pliku",
136
+ "fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) przekracza maksymalny dozwolony rozmiar {{maxSize}}",
137
+ "fileSizeExceededMultiple": "{{count}} plików przekracza maksymalny dozwolony rozmiar {{maxSize}}: {{fileList}}",
138
+ "imageCountExceeded": "Przekroczono dopuszczalną liczbę obrazów"
128
139
  }
129
140
  },
130
141
  "OllamaSetupGuide": {
@@ -85,6 +85,17 @@
85
85
  "CreateMessageError": "Przykro nam, wiadomość nie została wysłana poprawnie. Proszę skopiować treść i spróbować ponownie, po odświeżeniu strony ta wiadomość nie zostanie zachowana.",
86
86
  "ExceededContextWindow": "Aktualna zawartość żądania przekracza długość, którą model może przetworzyć. Proszę zmniejszyć ilość treści i spróbować ponownie.",
87
87
  "FreePlanLimit": "Jesteś obecnie użytkownikiem darmowej wersji, nie możesz korzystać z tej funkcji. Proszę uaktualnić do planu płatnego, aby kontynuować korzystanie.",
88
+ "GoogleAIBlockReason": {
89
+ "BLOCKLIST": "Twoja treść zawiera zabronione słowa. Sprawdź i popraw wprowadzone dane, a następnie spróbuj ponownie.",
90
+ "IMAGE_SAFETY": "Wygenerowana zawartość obrazu została zablokowana ze względów bezpieczeństwa. Spróbuj zmodyfikować żądanie generowania obrazu.",
91
+ "LANGUAGE": "Używany język nie jest obecnie obsługiwany. Spróbuj ponownie, używając angielskiego lub innego obsługiwanego języka.",
92
+ "OTHER": "Treść została zablokowana z nieznanych powodów. Spróbuj sformułować zapytanie inaczej.",
93
+ "PROHIBITED_CONTENT": "Twoje żądanie może zawierać zabronioną treść. Dostosuj proszę zapytanie, aby było zgodne z zasadami korzystania.",
94
+ "RECITATION": "Twoja treść została zablokowana z powodu możliwych naruszeń praw autorskich. Spróbuj użyć oryginalnej treści lub sformułować zapytanie inaczej.",
95
+ "SAFETY": "Twoja treść została zablokowana ze względu na zasady bezpieczeństwa. Spróbuj zmienić treść zapytania, unikając potencjalnie szkodliwych lub nieodpowiednich elementów.",
96
+ "SPII": "Twoja treść może zawierać wrażliwe dane osobowe. Aby chronić prywatność, usuń powiązane informacje i spróbuj ponownie.",
97
+ "default": "Treść została zablokowana: {{blockReason}}. Proszę dostosować treść żądania i spróbować ponownie."
98
+ },
88
99
  "InsufficientQuota": "Przykro nam, limit dla tego klucza został osiągnięty. Proszę sprawdzić saldo konta lub zwiększyć limit klucza i spróbować ponownie.",
89
100
  "InvalidAccessCode": "Nieprawidłowy kod dostępu: Hasło jest nieprawidłowe lub puste. Proszę wprowadzić poprawne hasło dostępu lub dodać niestandardowy klucz API.",
90
101
  "InvalidBedrockCredentials": "Uwierzytelnienie Bedrock nie powiodło się, prosimy sprawdzić AccessKeyId/SecretAccessKey i spróbować ponownie.",
@@ -332,12 +332,21 @@
332
332
  "Qwen/Qwen3-30B-A3B-Instruct-2507": {
333
333
  "description": "Qwen3-30B-A3B-Instruct-2507 to zaktualizowana wersja modelu Qwen3-30B-A3B w trybie bez myślenia. Jest to model ekspertowy mieszany (MoE) z 30,5 miliardami parametrów ogółem i 3,3 miliardami parametrów aktywacyjnych. Model został znacząco ulepszony pod wieloma względami, w tym w zakresie przestrzegania instrukcji, rozumowania logicznego, rozumienia tekstu, matematyki, nauki, kodowania oraz korzystania z narzędzi. Ponadto osiągnął istotny postęp w pokryciu wiedzy wielojęzycznej oraz lepsze dopasowanie do preferencji użytkowników w zadaniach subiektywnych i otwartych, co pozwala generować bardziej pomocne odpowiedzi i teksty wyższej jakości. Dodatkowo zdolność rozumienia długich tekstów została zwiększona do 256K. Model ten obsługuje wyłącznie tryb bez myślenia i nie generuje tagów `<think></think>` w swoich odpowiedziach."
334
334
  },
335
+ "Qwen/Qwen3-30B-A3B-Thinking-2507": {
336
+ "description": "Qwen3-30B-A3B-Thinking-2507 jest najnowszym modelem „Thinking” z serii Qwen3, wydanym przez zespół Tongyi Qianwen firmy Alibaba. Jako hybrydowy model ekspertów (MoE) z 30,5 mld parametrów łącznie i 3,3 mld parametrów aktywacji koncentruje się na zwiększaniu zdolności do obsługi złożonych zadań. Model wykazuje znaczące usprawnienia wydajności w benchmarkach akademickich obejmujących rozumowanie logiczne, matematykę, nauki ścisłe, programowanie oraz zadania wymagające wiedzy eksperckiej. Ponadto jego ogólne możliwości — takie jak zgodność z instrukcjami, korzystanie z narzędzi, generowanie tekstu i dostosowanie do preferencji użytkowników — zostały istotnie wzmocnione. Model natywnie obsługuje długi kontekst o długości 256K tokenów i można go skalować do 1 miliona tokenów. Ta wersja została zaprojektowana do 'trybu myślenia' i ma na celu rozwiązywanie wysoce złożonych zadań poprzez szczegółowe, krok po kroku rozumowanie; jego zdolności jako agenta także wypadają znakomicie."
337
+ },
335
338
  "Qwen/Qwen3-32B": {
336
339
  "description": "Qwen3 to nowa generacja modelu Qwen, która znacznie zwiększa zdolności w zakresie wnioskowania, ogólnych zadań, agentów i wielojęzyczności, osiągając wiodące w branży wyniki oraz wspierając przełączanie trybu myślenia."
337
340
  },
338
341
  "Qwen/Qwen3-8B": {
339
342
  "description": "Qwen3 to nowa generacja modelu Qwen, która znacznie zwiększa zdolności w zakresie wnioskowania, ogólnych zadań, agentów i wielojęzyczności, osiągając wiodące w branży wyniki oraz wspierając przełączanie trybu myślenia."
340
343
  },
344
+ "Qwen/Qwen3-Coder-30B-A3B-Instruct": {
345
+ "description": "Qwen3-Coder-30B-A3B-Instruct jest modelem kodowania z serii Qwen3 opracowanym przez zespół Tongyi Qianwen firmy Alibaba. Jako model poddany uproszczeniu i optymalizacji, przy zachowaniu wysokiej wydajności i efektywności, skupia się na udoskonaleniu zdolności przetwarzania kodu. Model wykazuje wyraźną przewagę wydajnościową wśród modeli open-source w złożonych zadaniach, takich jak programowanie agentowe (Agentic Coding), automatyzacja działań w przeglądarce oraz wywoływanie narzędzi. Natywnie obsługuje długi kontekst o długości 256K tokenów i można go rozszerzyć do 1M tokenów, co pozwala na lepsze rozumienie i przetwarzanie na poziomie repozytorium kodu. Ponadto model zapewnia silne wsparcie dla agentowego kodowania na platformach takich jak Qwen Code i CLINE oraz został zaprojektowany z dedykowanym formatem wywoływania funkcji."
346
+ },
347
+ "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
348
+ "description": "Qwen3-Coder-480B-A35B-Instruct został wydany przez Alibaba i jest jak dotąd modelem kodowania o największych zdolnościach agentskich (agentic). Jest to model typu Mixture-of-Experts (MoE) z 480 miliardami parametrów ogółem i 35 miliardami parametrów aktywacyjnych, osiągający równowagę między wydajnością a efektywnością. Model natywnie obsługuje kontekst o długości 256K (około 260 tys.) tokenów i może być rozszerzony do 1 miliona tokenów za pomocą metod ekstrapolacji, takich jak YaRN, co pozwala mu przetwarzać duże repozytoria kodu i złożone zadania programistyczne. Qwen3-Coder został zaprojektowany pod kątem agentowego przepływu pracy kodowania — nie tylko generuje kod, ale również potrafi autonomicznie współdziałać z narzędziami i środowiskami deweloperskimi, aby rozwiązywać złożone problemy programistyczne. W wielu benchmarkach dotyczących zadań kodowania i agentowych model osiągnął czołowe wyniki wśród modeli open-source, a jego wydajność dorównuje wiodącym modelom, takim jak Claude Sonnet 4."
349
+ },
341
350
  "Qwen2-72B-Instruct": {
342
351
  "description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki i wielu języków."
343
352
  },
@@ -1103,12 +1112,27 @@
1103
1112
  "flux-dev": {
1104
1113
  "description": "FLUX.1 [dev] to otwarty, dopracowany model o otwartych wagach przeznaczony do zastosowań niekomercyjnych. Zachowuje jakość obrazu i zdolność do przestrzegania instrukcji zbliżoną do wersji profesjonalnej FLUX, oferując jednocześnie wyższą efektywność działania. W porównaniu do standardowych modeli o podobnej wielkości jest bardziej efektywny w wykorzystaniu zasobów."
1105
1114
  },
1115
+ "flux-kontext-max": {
1116
+ "description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych — łączenie tekstu i obrazów, aby uzyskać precyzyjne i spójne rezultaty."
1117
+ },
1118
+ "flux-kontext-pro": {
1119
+ "description": "Najnowocześniejsze generowanie i edycja obrazów w kontekście — łączenie tekstu i obrazów w celu uzyskania precyzyjnych i spójnych rezultatów."
1120
+ },
1106
1121
  "flux-kontext/dev": {
1107
1122
  "description": "Model FLUX.1 skoncentrowany na zadaniach edycji obrazów, obsługujący wejścia tekstowe i graficzne."
1108
1123
  },
1109
1124
  "flux-merged": {
1110
1125
  "description": "Model FLUX.1-merged łączy głębokie cechy eksplorowane podczas fazy rozwojowej „DEV” z zaletami szybkiego wykonania reprezentowanymi przez „Schnell”. Dzięki temu FLUX.1-merged nie tylko przesuwa granice wydajności modelu, ale także rozszerza zakres jego zastosowań."
1111
1126
  },
1127
+ "flux-pro": {
1128
+ "description": "Wiodący komercyjny model AI do generowania obrazów — niezrównana jakość obrazów i różnorodność generowanych rezultatów."
1129
+ },
1130
+ "flux-pro-1.1": {
1131
+ "description": "Ulepszona, profesjonalna wersja modelu AI do generowania obrazów — zapewnia doskonałą jakość obrazów i precyzyjne realizowanie poleceń."
1132
+ },
1133
+ "flux-pro-1.1-ultra": {
1134
+ "description": "Generowanie obrazów AI o ultrawysokiej rozdzielczości — obsługa wyjścia 4 megapikseli, tworzy niezwykle wyraźne obrazy w ciągu 10 sekund."
1135
+ },
1112
1136
  "flux-pro/kontext": {
1113
1137
  "description": "FLUX.1 Kontext [pro] potrafi przetwarzać tekst i obrazy referencyjne jako dane wejściowe, umożliwiając płynną, celową edycję lokalną oraz złożone transformacje całych scen."
1114
1138
  },
@@ -1193,6 +1217,9 @@
1193
1217
  "gemini-2.5-flash": {
1194
1218
  "description": "Gemini 2.5 Flash to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
1195
1219
  },
1220
+ "gemini-2.5-flash-image-preview": {
1221
+ "description": "Gemini 2.5 Flash Image Preview to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny firmy Google. Umożliwia tworzenie i edycję obrazów podczas konwersacji."
1222
+ },
1196
1223
  "gemini-2.5-flash-lite": {
1197
1224
  "description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany z myślą o szerokim zastosowaniu."
1198
1225
  },
@@ -1295,6 +1322,9 @@
1295
1322
  "glm-4.5-x": {
1296
1323
  "description": "Ekspresowa wersja GLM-4.5, łącząca wysoką wydajność z prędkością generowania do 100 tokenów na sekundę."
1297
1324
  },
1325
+ "glm-4.5v": {
1326
+ "description": "Nowa generacja modelu do wnioskowania wizualnego firmy Zhipu oparta na architekturze MOE. Przy łącznej liczbie parametrów 106B i 12B parametrów aktywacji osiąga wyniki SOTA wśród otwartoźródłowych modeli multimodalnych o porównywalnej skali na różnych benchmarkach, obejmując typowe zadania związane z analizą obrazów, wideo, rozumieniem dokumentów oraz zadaniami GUI."
1327
+ },
1298
1328
  "glm-4v": {
1299
1329
  "description": "GLM-4V oferuje potężne zdolności rozumienia i wnioskowania obrazów, obsługując różne zadania wizualne."
1300
1330
  },
@@ -1434,7 +1464,7 @@
1434
1464
  "description": "GPT-4.1 mini oferuje równowagę między inteligencją, szybkością a kosztami, co czyni go atrakcyjnym modelem w wielu zastosowaniach."
1435
1465
  },
1436
1466
  "gpt-4.5-preview": {
1437
- "description": "Wersja badawcza GPT-4.5, która jest naszym największym i najpotężniejszym modelem GPT do tej pory. Posiada szeroką wiedzę o świecie i lepiej rozumie intencje użytkowników, co sprawia, że doskonale radzi sobie w zadaniach kreatywnych i autonomicznym planowaniu. GPT-4.5 akceptuje tekstowe i graficzne wejścia oraz generuje wyjścia tekstowe (w tym wyjścia strukturalne). Wspiera kluczowe funkcje dla deweloperów, takie jak wywołania funkcji, API wsadowe i strumieniowe wyjścia. W zadaniach wymagających kreatywności, otwartego myślenia i dialogu (takich jak pisanie, nauka czy odkrywanie nowych pomysłów), GPT-4.5 sprawdza się szczególnie dobrze. Data graniczna wiedzy to październik 2023."
1467
+ "description": "GPT-4.5-preview to najnowszy model ogólnego przeznaczenia, dysponujący rozległą wiedzą o świecie i lepszym rozumieniem intencji użytkownika. Sprawdza się w zadaniach twórczych i planowaniu działań. Wiedza modelu jest aktualna na październik 2023 r."
1438
1468
  },
1439
1469
  "gpt-4o": {
1440
1470
  "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
@@ -1637,9 +1667,18 @@
1637
1667
  "image-01-live": {
1638
1668
  "description": "Model generowania obrazów o delikatnej jakości wizualnej, wspierający generację obrazów na podstawie tekstu z możliwością ustawienia stylu."
1639
1669
  },
1670
+ "imagen-4.0-fast-generate-001": {
1671
+ "description": "Imagen — czwarta generacja serii modeli tekst-na-obraz, wersja Fast"
1672
+ },
1673
+ "imagen-4.0-generate-001": {
1674
+ "description": "Seria modeli Imagen czwartej generacji do tworzenia obrazów na podstawie tekstu"
1675
+ },
1640
1676
  "imagen-4.0-generate-preview-06-06": {
1641
1677
  "description": "Seria modeli tekst-na-obraz Imagen czwartej generacji"
1642
1678
  },
1679
+ "imagen-4.0-ultra-generate-001": {
1680
+ "description": "Imagen — seria modeli przekształcających tekst w obraz czwartej generacji, wersja Ultra"
1681
+ },
1643
1682
  "imagen-4.0-ultra-generate-preview-06-06": {
1644
1683
  "description": "Seria modeli tekst-na-obraz Imagen czwartej generacji, wersja Ultra"
1645
1684
  },
@@ -1679,6 +1718,9 @@
1679
1718
  "kimi-k2-0711-preview": {
1680
1719
  "description": "kimi-k2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1T i 32B aktywowanych parametrów. W testach wydajności na benchmarkach obejmujących ogólne rozumowanie, programowanie, matematykę i agentów model K2 przewyższa inne popularne modele open source."
1681
1720
  },
1721
+ "kimi-k2-turbo-preview": {
1722
+ "description": "kimi-k2 to bazowy model z architekturą MoE, dysponujący wyjątkowymi możliwościami w zakresie kodowania i agentów, z łączną liczbą parametrów 1T oraz 32B parametrów aktywacyjnych. W standardowych testach wydajności (benchmarkach) dla głównych kategorii takich jak wnioskowanie z wiedzy ogólnej, programowanie, matematyka i agenty, model K2 przewyższa inne popularne otwarte modele."
1723
+ },
1682
1724
  "kimi-latest": {
1683
1725
  "description": "Produkt Kimi Smart Assistant korzysta z najnowszego modelu Kimi, który może zawierać cechy jeszcze niestabilne. Obsługuje zrozumienie obrazów i automatycznie wybiera model 8k/32k/128k jako model rozliczeniowy w zależności od długości kontekstu żądania."
1684
1726
  },
@@ -1763,6 +1805,9 @@
1763
1805
  "llava:34b": {
1764
1806
  "description": "LLaVA to multimodalny model łączący kodery wizualne i Vicunę, przeznaczony do silnego rozumienia wizualnego i językowego."
1765
1807
  },
1808
+ "magistral-medium-latest": {
1809
+ "description": "Magistral Medium 1.1 to model inferencyjny najnowszej generacji, wydany przez Mistral AI w lipcu 2025 roku."
1810
+ },
1766
1811
  "mathstral": {
1767
1812
  "description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników."
1768
1813
  },
@@ -2094,7 +2139,7 @@
2094
2139
  "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
2095
2140
  },
2096
2141
  "o1-preview": {
2097
- "description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
2142
+ "description": "Skoncentrowany na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do zastosowań wymagających głębokiego zrozumienia kontekstu i autonomicznych przepływów pracy."
2098
2143
  },
2099
2144
  "o1-pro": {
2100
2145
  "description": "Modele z serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych, aby prowadzić głębsze rozważania i stale dostarczać lepsze odpowiedzi."
@@ -2213,8 +2258,14 @@
2213
2258
  "qwen-coder-turbo-latest": {
2214
2259
  "description": "Model kodowania Qwen."
2215
2260
  },
2261
+ "qwen-flash": {
2262
+ "description": "Seria Tongyi Qianwen to najszybsze i najtańsze modele, odpowiednie do prostych zadań."
2263
+ },
2216
2264
  "qwen-image": {
2217
- "description": "Potężny model generowania obrazów od zespołu Qwen, z imponującymi zdolnościami generowania tekstu w języku chińskim oraz różnorodnymi stylami wizualnymi obrazów."
2265
+ "description": "Qwen-Image jest uniwersalnym modelem generowania obrazów, obsługującym wiele stylów artystycznych, a w szczególności znakomicie radzącym sobie z renderowaniem złożonego tekstu, zwłaszcza tekstu w języku chińskim i angielskim. Model obsługuje układy wielowierszowe, generowanie tekstu na poziomie akapitu oraz odwzorowywanie drobnych detali, co pozwala na tworzenie złożonych projektów łączących obraz i tekst."
2266
+ },
2267
+ "qwen-image-edit": {
2268
+ "description": "Profesjonalny model edycji obrazów wydany przez zespół Qwen, obsługuje edycję semantyczną i edycję wyglądu, potrafi precyzyjnie edytować teksty w języku chińskim i angielskim oraz wykonywać wysokiej jakości operacje edycyjne, takie jak zmiana stylu czy obrót obiektów."
2218
2269
  },
2219
2270
  "qwen-long": {
2220
2271
  "description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach."
@@ -2241,7 +2292,7 @@
2241
2292
  "description": "Qwen Plus to ulepszona wersja ogromnego modelu językowego, wspierająca różne języki, w tym chiński i angielski."
2242
2293
  },
2243
2294
  "qwen-turbo": {
2244
- "description": "Qwen Turbo to ogromny model językowy, który obsługuje różne języki, w tym chiński i angielski."
2295
+ "description": "通义千问 Turbo nie będzie już aktualizowany; zaleca się zastąpienie go modelem 通义千问 Flash. 通义千问 to model językowy o bardzo dużej skali, obsługujący wejścia w języku chińskim, angielskim i innych językach."
2245
2296
  },
2246
2297
  "qwen-vl-chat-v1": {
2247
2298
  "description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
@@ -2558,9 +2609,15 @@
2558
2609
  "step-2x-large": {
2559
2610
  "description": "Nowa generacja modelu Step Star, skoncentrowana na generowaniu obrazów na podstawie tekstu. Model tworzy obrazy o bardziej realistycznej fakturze i lepszych zdolnościach generowania tekstu w języku chińskim i angielskim."
2560
2611
  },
2612
+ "step-3": {
2613
+ "description": "Model posiada zaawansowane zdolności percepcji wzrokowej i złożonego wnioskowania. Potrafi z wysoką precyzją realizować międzydziedzinowe zrozumienie skomplikowanej wiedzy, przeprowadzać analizę łączącą informacje matematyczne i wizualne oraz rozwiązywać różnorodne problemy związane z analizą wizualną w życiu codziennym."
2614
+ },
2561
2615
  "step-r1-v-mini": {
2562
2616
  "description": "Model ten to potężny model wnioskowania z zdolnościami rozumienia obrazów, zdolny do przetwarzania informacji wizualnych i tekstowych, generując tekst po głębokim przemyśleniu. Model ten wyróżnia się w dziedzinie wnioskowania wizualnego, a także posiada pierwszorzędne zdolności wnioskowania matematycznego, kodowania i tekstu. Długość kontekstu wynosi 100k."
2563
2617
  },
2618
+ "stepfun-ai/step3": {
2619
+ "description": "Step3 to zaawansowany multimodalny model wnioskowania wydany przez StepFun (阶跃星辰). Został zbudowany na architekturze Mixture of Experts (MoE) z łączną liczbą 321 mld parametrów i 38 mld parametrów aktywacji. Model ma konstrukcję end-to-end, zaprojektowaną tak, aby minimalizować koszty dekodowania, jednocześnie zapewniając najwyższą wydajność w zadaniach wnioskowania wizualno-językowego. Dzięki współdziałaniu mechanizmów Multi-Matrix Factorized Attention (MFA) i Attention-FFN Decoupling (AFD), Step3 zachowuje znakomitą efektywność zarówno na akceleratorach klasy flagowej, jak i na urządzeniach o niższej wydajności. W fazie pretrenowania Step3 przetworzył ponad 20 bilionów tokenów tekstowych oraz 4 biliony tokenów mieszanych tekstowo-obrazowych, obejmujących ponad dziesięć języków. Model osiągnął czołowe wyniki wśród modeli open-source na wielu benchmarkach, w tym w zadaniach z zakresu matematyki, programowania i multimodalu."
2620
+ },
2564
2621
  "taichu_llm": {
2565
2622
  "description": "Model językowy TaiChu charakteryzuje się wyjątkową zdolnością rozumienia języka oraz umiejętnościami w zakresie tworzenia tekstów, odpowiadania na pytania, programowania, obliczeń matematycznych, wnioskowania logicznego, analizy emocji i streszczenia tekstu. Innowacyjnie łączy wstępne uczenie się na dużych zbiorach danych z bogatą wiedzą z wielu źródeł, stale doskonaląc technologię algorytmiczną i nieustannie przyswajając nową wiedzę z zakresu słownictwa, struktury, gramatyki i semantyki z ogromnych zbiorów danych tekstowych, co prowadzi do ciągłej ewolucji modelu. Umożliwia użytkownikom łatwiejszy dostęp do informacji i usług oraz bardziej inteligentne doświadczenia."
2566
2623
  },
@@ -2707,5 +2764,8 @@
2707
2764
  },
2708
2765
  "zai-org/GLM-4.5-Air": {
2709
2766
  "description": "GLM-4.5-Air to podstawowy model zaprojektowany specjalnie do zastosowań agentowych, wykorzystujący architekturę mieszanych ekspertów (Mixture-of-Experts). Model jest głęboko zoptymalizowany pod kątem wywoływania narzędzi, przeglądania stron internetowych, inżynierii oprogramowania i programowania frontendowego, wspierając bezproblemową integrację z inteligentnymi agentami kodu takimi jak Claude Code i Roo Code. GLM-4.5 stosuje hybrydowy tryb wnioskowania, dostosowując się do złożonych i codziennych scenariuszy użycia."
2767
+ },
2768
+ "zai-org/GLM-4.5V": {
2769
+ "description": "GLM-4.5V to najnowszej generacji model wizualno‑językowy (VLM) wydany przez Zhipu AI. Model zbudowano na flagowym modelu tekstowym GLM-4.5-Air, który dysponuje 106 mld parametrów łącznie oraz 12 mld parametrów aktywacyjnych. Wykorzystuje architekturę Mixture-of-Experts (MoE) i został zaprojektowany, by przy niższych kosztach inferencji osiągać znakomitą wydajność. GLM-4.5V technicznie kontynuuje podejście GLM-4.1V-Thinking i wprowadza innowacje takie jak trójwymiarowe obrotowe kodowanie pozycji (3D‑RoPE), co znacząco poprawia postrzeganie i wnioskowanie dotyczące relacji przestrzennych w 3D. Dzięki optymalizacjom w fazach pretrenowania, nadzorowanego dostrajania i uczenia przez wzmocnienie model potrafi przetwarzać obrazy, filmy i długie dokumenty, osiągając czołowe wyniki wśród otwartoźródłowych modeli w 41 publicznych benchmarkach multimodalnych. Dodatkowo model zyskał przełącznik „trybu myślenia”, który pozwala użytkownikom elastycznie wybierać między szybką odpowiedzią a głębokim rozumowaniem, aby zrównoważyć efektywność i skuteczność."
2710
2770
  }
2711
2771
  }
@@ -26,6 +26,9 @@
26
26
  "bedrock": {
27
27
  "description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych."
28
28
  },
29
+ "bfl": {
30
+ "description": "Wiodące, przełomowe laboratorium badawcze sztucznej inteligencji, tworzące wizualną infrastrukturę jutra."
31
+ },
29
32
  "cloudflare": {
30
33
  "description": "Uruchamiaj modele uczenia maszynowego napędzane przez GPU w globalnej sieci Cloudflare."
31
34
  },
@@ -1,4 +1,9 @@
1
1
  {
2
+ "ArgsInput": {
3
+ "addArgument": "Adicionar argumento",
4
+ "argumentPlaceholder": "Argumento {{index}}",
5
+ "enterFirstArgument": "Digite o primeiro argumento..."
6
+ },
2
7
  "DragUpload": {
3
8
  "dragDesc": "Arraste os arquivos para cá, suportando o upload de várias imagens.",
4
9
  "dragFileDesc": "Arraste imagens e arquivos para cá, suportando o upload de várias imagens e arquivos.",
@@ -125,6 +130,12 @@
125
130
  },
126
131
  "progress": {
127
132
  "uploadingWithCount": "{{completed}}/{{total}} enviados"
133
+ },
134
+ "validation": {
135
+ "fileSizeExceeded": "Tamanho do arquivo excede o limite",
136
+ "fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) excede o limite máximo de {{maxSize}}",
137
+ "fileSizeExceededMultiple": "{{count}} arquivos excedem o limite máximo de {{maxSize}}: {{fileList}}",
138
+ "imageCountExceeded": "Número de imagens excede o limite"
128
139
  }
129
140
  },
130
141
  "OllamaSetupGuide": {
@@ -85,6 +85,17 @@
85
85
  "CreateMessageError": "Desculpe, a mensagem não pôde ser enviada corretamente. Por favor, copie o conteúdo e tente enviar novamente. Após atualizar a página, esta mensagem não será mantida.",
86
86
  "ExceededContextWindow": "O conteúdo da solicitação atual excede o comprimento que o modelo pode processar. Por favor, reduza a quantidade de conteúdo e tente novamente.",
87
87
  "FreePlanLimit": "Atualmente, você é um usuário gratuito e não pode usar essa função. Por favor, faça upgrade para um plano pago para continuar usando.",
88
+ "GoogleAIBlockReason": {
89
+ "BLOCKLIST": "Seu conteúdo contém palavras proibidas. Verifique e modifique sua entrada e tente novamente.",
90
+ "IMAGE_SAFETY": "A geração da imagem foi bloqueada por motivos de segurança. Tente modificar sua solicitação de geração de imagem.",
91
+ "LANGUAGE": "O idioma que você está usando não é suportado no momento. Tente perguntar novamente em inglês ou em outro idioma suportado.",
92
+ "OTHER": "O conteúdo foi bloqueado por motivo desconhecido. Tente reformular sua solicitação.",
93
+ "PROHIBITED_CONTENT": "Sua solicitação pode conter conteúdo proibido. Ajuste seu pedido para garantir que esteja em conformidade com as diretrizes de uso.",
94
+ "RECITATION": "Seu conteúdo foi bloqueado por possível violação de direitos autorais. Tente usar conteúdo original ou reformular sua solicitação.",
95
+ "SAFETY": "Seu conteúdo foi bloqueado pelas regras de segurança. Tente ajustar sua solicitação, evitando conteúdo potencialmente nocivo ou inadequado.",
96
+ "SPII": "Seu conteúdo pode conter informações pessoais sensíveis (SPII). Para proteger a privacidade, remova as informações sensíveis e tente novamente.",
97
+ "default": "Conteúdo bloqueado: {{blockReason}}. Ajuste sua solicitação e tente novamente."
98
+ },
88
99
  "InsufficientQuota": "Desculpe, a cota dessa chave atingiu o limite. Verifique se o saldo da conta é suficiente ou aumente a cota da chave e tente novamente.",
89
100
  "InvalidAccessCode": "Senha de acesso inválida ou em branco. Por favor, insira a senha de acesso correta ou adicione uma Chave de API personalizada.",
90
101
  "InvalidBedrockCredentials": "Credenciais Bedrock inválidas, por favor, verifique AccessKeyId/SecretAccessKey e tente novamente",