comfyui-workflow-templates-media-other 0.3.10__py3-none-any.whl → 0.3.14__py3-none-any.whl

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -2,866 +2,539 @@
2
2
  {
3
3
  "moduleName": "default",
4
4
  "type": "image",
5
- "isEssential": true,
6
- "title": "Getting Started",
5
+ "category": "GENERATION TYPE",
6
+ "icon": "icon-[lucide--image]",
7
+ "title": "Image",
7
8
  "templates": [
8
9
  {
9
- "name": "01_qwen_t2i_subgraphed",
10
- "title": "Texto a imagen (Nuevo)",
10
+ "name": "image_flux2",
11
+ "title": "Flux.2 Dev",
11
12
  "mediaType": "image",
12
13
  "mediaSubtype": "webp",
13
- "description": "Genera imágenes a partir de indicaciones de texto usando el modelo Qwen-Image",
14
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
15
- "tags": ["Texto a imagen", "Imagen"],
16
- "models": ["Qwen-Image"],
17
- "date": "2025-10-17",
18
- "size": 31772020572
14
+ "thumbnailVariant": "compareSlider",
15
+ "description": "Genera imágenes fotorrealistas con coherencia multi-referencia y renderizado profesional de texto.",
16
+ "tags": ["Texto a imagen", "Imagen", "Edición de imagen"],
17
+ "models": ["Flux.2 Dev", "BFL"],
18
+ "date": "2025-11-26",
19
+ "size": 71382356459,
20
+ "vram": 0
19
21
  },
20
22
  {
21
- "name": "02_qwen_Image_edit_subgraphed",
22
- "title": "Edición de imágenes (Nuevo)",
23
+ "name": "image_flux2_fp8",
24
+ "title": "Maqueta de producto (Flux.2 Dev FP8)",
23
25
  "mediaType": "image",
24
26
  "mediaSubtype": "webp",
25
- "description": "Edita tus imágenes con Qwen-Image-Edit",
26
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
27
- "tags": ["Imagen a imagen", "Edición de imagen", "ControlNet"],
28
- "models": ["Qwen-Image"],
29
- "date": "2025-10-17",
30
- "size": 31772020572
27
+ "description": "Crea maquetas de productos aplicando patrones de diseño a envases, tazas y otros productos usando consistencia multi-referencia.",
28
+ "tags": ["Texto a imagen", "Imagen", "Edición de imagen", "Maqueta", "Diseño de producto"],
29
+ "models": ["Flux.2 Dev", "BFL"],
30
+ "date": "2025-11-26",
31
+ "size": 53837415055,
32
+ "vram": 0
31
33
  },
32
34
  {
33
- "name": "03_video_wan2_2_14B_i2v_subgraphed",
34
- "title": "Imagen a Video (Nuevo)",
35
- "description": "Genera videos a partir de una imagen usando Wan2.2 14B",
35
+ "name": "image_z_image_turbo",
36
+ "title": "Z-Image-Turbo texto a imagen",
36
37
  "mediaType": "image",
37
38
  "mediaSubtype": "webp",
38
- "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
39
- "tags": ["Imagen a video", "Video"],
40
- "models": ["Wan2.2", "Wan"],
41
- "date": "2025-10-17",
42
- "size": 38031935406
39
+ "description": "Modelo fundacional eficiente de generación de imágenes con transformador de difusión de flujo único, compatible con inglés y chino.",
40
+ "tags": ["Texto a imagen", "Imagen"],
41
+ "models": ["Z-Image-Turbo"],
42
+ "date": "2025-11-27",
43
+ "size": 35326050304
43
44
  },
44
45
  {
45
- "name": "04_hunyuan_3d_2.1_subgraphed",
46
- "title": "Imagen a 3D (Nuevo)",
46
+ "name": "image_qwen_image",
47
+ "title": "Texto a imagen Qwen-Image",
47
48
  "mediaType": "image",
48
49
  "mediaSubtype": "webp",
49
- "description": "Genera modelos 3D a partir de imágenes únicas usando Hunyuan3D 2.0.",
50
- "tags": ["Imagen a 3D", "3D"],
51
- "models": ["Hunyuan3D"],
52
- "date": "2025-10-17",
53
- "tutorialUrl": "https://docs.comfy.org/tutorials/3d/hunyuan3D-2",
54
- "size": 4928474972
50
+ "description": "Generar imágenes con capacidad excepcional de renderizado y edición de texto multilingüe usando el modelo MMDiT de 20B de Qwen-Image.",
51
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
52
+ "tags": ["Texto a imagen", "Imagen"],
53
+ "models": ["Qwen-Image"],
54
+ "date": "2025-08-05",
55
+ "size": 31772020572
55
56
  },
56
57
  {
57
- "name": "05_audio_ace_step_1_t2a_song_subgraphed",
58
- "title": "Texto a audio (Nuevo)",
58
+ "name": "image_qwen_image_instantx_controlnet",
59
+ "title": "Qwen-Image InstantX ControlNet",
59
60
  "mediaType": "image",
60
61
  "mediaSubtype": "webp",
61
- "description": "Genera audio a partir de indicaciones de texto usando ACE-Step v1",
62
- "tags": ["Texto a audio", "Audio"],
63
- "models": ["ACE-Step"],
64
- "date": "2025-10-17",
65
- "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
66
- "size": 7698728878
62
+ "description": "Genera imágenes con Qwen-Image InstantX ControlNet, compatible con canny, bordes suaves, profundidad y pose",
63
+ "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
64
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
65
+ "models": ["Qwen-Image"],
66
+ "date": "2025-08-23",
67
+ "size": 35304631173
67
68
  },
68
69
  {
69
- "name": "default",
70
- "title": "Generación de imágenes",
70
+ "name": "image_qwen_image_instantx_inpainting_controlnet",
71
+ "title": "Qwen-Image InstantX ControlNet de Inpainting",
71
72
  "mediaType": "image",
72
73
  "mediaSubtype": "webp",
73
- "description": "Generar imágenes a partir de indicaciones de texto.",
74
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/text-to-image",
75
- "tags": ["Texto a imagen", "Imagen"],
76
- "models": ["SD1.5", "Stability"],
77
- "date": "2025-03-01",
78
- "size": 2136746230,
79
- "vram": 3092376453
74
+ "thumbnailVariant": "compareSlider",
75
+ "description": "Inpainting profesional y edición de imágenes con Qwen-Image InstantX ControlNet. Compatible con reemplazo de objetos, modificación de texto, cambios de fondo y outpainting.",
76
+ "tags": ["Imagen a imagen", "Imagen", "ControlNet", "Inpaint"],
77
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
78
+ "models": ["Qwen-Image"],
79
+ "date": "2025-09-12",
80
+ "size": 36013300777
80
81
  },
81
82
  {
82
- "name": "image2image",
83
- "title": "Imagen a imagen",
83
+ "name": "image_qwen_image_union_control_lora",
84
+ "title": "Control unificado Qwen-Image",
84
85
  "mediaType": "image",
85
86
  "mediaSubtype": "webp",
86
- "description": "Transformar imágenes existentes usando indicaciones de texto.",
87
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/image-to-image",
88
- "tags": ["Imagen a imagen", "Imagen"],
89
- "models": ["SD1.5", "Stability"],
90
- "date": "2025-03-01",
91
- "size": 2136746230,
92
- "vram": 3092376453,
93
- "thumbnailVariant": "hoverDissolve"
87
+ "description": "Generar imágenes con control estructural preciso usando el ControlNet LoRA unificado de Qwen-Image. Soporta múltiples tipos de control incluyendo canny, profundidad, lineart, softedge, normal y openpose para aplicaciones creativas diversas.",
88
+ "tags": ["Texto a imagen", "Imagen", "ControlNet"],
89
+ "models": ["Qwen-Image"],
90
+ "date": "2025-08-23",
91
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
92
+ "size": 32716913377
94
93
  },
95
94
  {
96
- "name": "lora",
97
- "title": "LoRA",
95
+ "name": "image_qwen_image_controlnet_patch",
96
+ "title": "Parche de modelo Qwen-Image ControlNet",
98
97
  "mediaType": "image",
99
98
  "mediaSubtype": "webp",
100
- "description": "Generar imágenes con modelos LoRA para estilos o temas especializados.",
101
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
102
- "tags": ["Texto a imagen", "Imagen"],
103
- "models": ["SD1.5", "Stability"],
104
- "date": "2025-03-01",
105
- "size": 2437393940,
106
- "vram": 3092376453
99
+ "thumbnailVariant": "compareSlider",
100
+ "description": "Controla la generación de imágenes usando modelos Qwen-Image ControlNet. Compatible con controles canny, profundidad e inpainting mediante parcheo de modelo.",
101
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
102
+ "tags": ["Texto a imagen", "Imagen", "ControlNet"],
103
+ "models": ["Qwen-Image"],
104
+ "date": "2025-08-24",
105
+ "size": 34037615821
107
106
  },
108
107
  {
109
- "name": "lora_multiple",
110
- "title": "LoRA múltiple",
108
+ "name": "image_qwen_image_edit_2509",
109
+ "title": "Qwen Edición de Imagen 2509",
111
110
  "mediaType": "image",
112
111
  "mediaSubtype": "webp",
113
- "description": "Generar imágenes combinando múltiples modelos LoRA.",
114
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
115
- "tags": ["Texto a imagen", "Imagen"],
116
- "models": ["SD1.5", "Stability"],
117
- "date": "2025-03-01",
118
- "size": 2437393940,
119
- "vram": 3350074491
112
+ "thumbnailVariant": "compareSlider",
113
+ "description": "Edición avanzada de imágenes con soporte multi-imagen, consistencia mejorada e integración de ControlNet.",
114
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
115
+ "tags": ["Imagen a imagen", "Edición de imagen", "ControlNet"],
116
+ "models": ["Qwen-Image"],
117
+ "date": "2025-09-25",
118
+ "size": 31772020572
120
119
  },
121
120
  {
122
- "name": "inpaint_example",
123
- "title": "Inpainting",
121
+ "name": "image_qwen_image_edit",
122
+ "title": "Edición de imagen Qwen",
124
123
  "mediaType": "image",
125
124
  "mediaSubtype": "webp",
126
- "description": "Editar partes específicas de imágenes sin problemas.",
127
125
  "thumbnailVariant": "compareSlider",
128
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
129
- "tags": ["Inpaint", "Imagen"],
130
- "models": ["SD1.5", "Stability"],
131
- "date": "2025-03-01",
132
- "size": 5218385265,
133
- "vram": 4101693768
126
+ "description": "Editar imágenes con edición precisa de texto bilingüe y capacidades de edición dual semántica/apariencia usando el modelo MMDiT de 20B de Qwen-Image-Edit.",
127
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
128
+ "tags": ["Imagen a imagen", "Edición de imagen"],
129
+ "models": ["Qwen-Image"],
130
+ "date": "2025-08-18",
131
+ "size": 31772020572
134
132
  },
135
133
  {
136
- "name": "inpaint_model_outpainting",
137
- "title": "Outpainting",
134
+ "name": "image_chrono_edit_14B",
135
+ "title": "ChronoEdit 14B",
138
136
  "mediaType": "image",
139
137
  "mediaSubtype": "webp",
140
- "description": "Extender imágenes más allá de sus límites originales.",
141
138
  "thumbnailVariant": "compareSlider",
142
- "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
143
- "tags": ["Outpaint", "Imagen"],
144
- "models": ["SD1.5", "Stability"],
145
- "date": "2025-03-01",
146
- "size": 5218385265,
147
- "vram": 4101693768
139
+ "description": "Edición de imágenes impulsada por la comprensión dinámica de modelos de video, creando resultados físicamente plausibles mientras preserva la consistencia del personaje y el estilo.",
140
+ "tags": ["Edición de imagen", "Imagen a imagen"],
141
+ "models": ["Wan2.1", "ChronoEdit", "Nvidia"],
142
+ "date": "2025-11-03",
143
+ "size": 40459304
148
144
  },
149
145
  {
150
- "name": "embedding_example",
151
- "title": "Incrustación",
146
+ "name": "flux_kontext_dev_basic",
147
+ "title": "Flux Kontext Dev(Básico)",
152
148
  "mediaType": "image",
153
149
  "mediaSubtype": "webp",
154
- "description": "Generar imágenes usando inversión textual para estilos consistentes.",
155
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/",
150
+ "thumbnailVariant": "hoverDissolve",
151
+ "description": "Editar imagen usando Flux Kontext con visibilidad completa de nodos, perfecto para aprender el flujo de trabajo.",
152
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev",
153
+ "tags": ["Edición de imagen", "Imagen a imagen"],
154
+ "models": ["Flux", "BFL"],
155
+ "date": "2025-06-26",
156
+ "size": 17641578168,
157
+ "vram": 19327352832
158
+ },
159
+ {
160
+ "name": "image_chroma1_radiance_text_to_image",
161
+ "title": "Chroma1 Radiance Texto a Imagen",
162
+ "mediaType": "image",
163
+ "mediaSubtype": "webp",
164
+ "description": "Chroma1-Radiance trabaja directamente con píxeles de imagen en lugar de latentes comprimidos, ofreciendo imágenes de mayor calidad con menos artefactos y distorsión.",
156
165
  "tags": ["Texto a imagen", "Imagen"],
157
- "models": ["SD1.5", "Stability"],
158
- "date": "2025-03-01",
159
- "size": 5218385265,
160
- "vram": 4123168604
166
+ "models": ["Chroma"],
167
+ "date": "2025-09-18",
168
+ "size": 23622320128,
169
+ "vram": 23622320128
161
170
  },
162
171
  {
163
- "name": "gligen_textbox_example",
164
- "title": "Cuadro de texto Gligen",
172
+ "name": "image_netayume_lumina_t2i",
173
+ "title": "NetaYume Lumina Texto a Imagen",
165
174
  "mediaType": "image",
166
175
  "mediaSubtype": "webp",
167
- "description": "Generar imágenes con colocación precisa de objetos usando cuadros de texto.",
168
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/gligen/",
169
- "tags": ["Imagen"],
170
- "models": ["SD1.5", "Stability"],
171
- "date": "2025-03-01",
172
- "size": 2974264852,
173
- "vram": 4080218931
176
+ "description": "Generación de imágenes de estilo anime de alta calidad con comprensión mejorada de personajes y texturas detalladas. Ajustado finamente desde Neta Lumina en el conjunto de datos Danbooru.",
177
+ "tags": ["Texto a imagen", "Imagen", "Anime"],
178
+ "models": ["OmniGen"],
179
+ "date": "2025-10-10",
180
+ "size": 10619306639
174
181
  },
175
182
  {
176
- "name": "area_composition",
177
- "title": "Composición de área",
183
+ "name": "image_chroma_text_to_image",
184
+ "title": "Texto a imagen Chroma",
178
185
  "mediaType": "image",
179
186
  "mediaSubtype": "webp",
180
- "description": "Generar imágenes controlando la composición con áreas definidas.",
187
+ "description": "Chroma está modificado de flux y tiene algunos cambios en la arquitectura.",
181
188
  "tags": ["Texto a imagen", "Imagen"],
182
- "models": ["SD1.5", "Stability"],
183
- "date": "2025-03-01",
184
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/",
185
- "size": 2469606195,
186
- "vram": 6184752906
189
+ "models": ["Chroma", "Flux"],
190
+ "date": "2025-06-04",
191
+ "size": 23289460163,
192
+ "vram": 15569256448
187
193
  },
188
194
  {
189
- "name": "area_composition_square_area_for_subject",
190
- "title": "Composición de área área cuadrada para sujeto",
195
+ "name": "image_flux.1_fill_dev_OneReward",
196
+ "title": "Flux.1 Dev OneReward",
191
197
  "mediaType": "image",
192
198
  "mediaSubtype": "webp",
193
- "description": "Generar imágenes con colocación consistente de sujeto usando composición de área.",
194
- "tags": ["Texto a imagen", "Imagen"],
195
- "models": ["SD1.5", "Stability"],
196
- "date": "2025-03-01",
197
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/#increasing-consistency-of-images-with-area-composition",
198
- "size": 2469606195,
199
- "vram": 5927054868
199
+ "thumbnailVariant": "compareSlider",
200
+ "description": "Supports various tasks such as image inpainting, outpainting, and object removal",
201
+ "tags": ["Inpaint", "Outpaint"],
202
+ "models": ["Flux", "BFL"],
203
+ "date": "2025-09-21",
204
+ "size": 29001766666,
205
+ "vram": 21474836480
200
206
  },
201
207
  {
202
- "name": "hiresfix_latent_workflow",
203
- "title": "Mejorar",
208
+ "name": "flux_dev_checkpoint_example",
209
+ "title": "Flux Dev fp8",
204
210
  "mediaType": "image",
205
211
  "mediaSubtype": "webp",
206
- "description": "Mejorar imágenes aumentando la calidad en el espacio latente.",
207
- "thumbnailVariant": "compareSlider",
208
- "tags": ["Mejorar", "Imagen"],
209
- "models": ["SD1.5", "Stability"],
212
+ "description": "Generar imágenes usando la versión cuantizada Flux Dev fp8. Adecuado para dispositivos con VRAM limitada, requiere solo un archivo de modelo, pero la calidad de imagen es ligeramente inferior a la versión completa.",
213
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
214
+ "tags": ["Texto a imagen", "Imagen"],
215
+ "models": ["Flux", "BFL"],
210
216
  "date": "2025-03-01",
211
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/",
212
- "size": 2136746230,
213
- "vram": 3929895076
217
+ "size": 17244293693,
218
+ "vram": 18253611008
214
219
  },
215
220
  {
216
- "name": "esrgan_example",
217
- "title": "ESRGAN",
221
+ "name": "flux1_dev_uso_reference_image_gen",
222
+ "title": "Generación de Imágenes de Referencia Flux.1 Dev USO",
223
+ "description": "Usa imágenes de referencia para controlar tanto el estilo como el sujeto: mantén el rostro de tu personaje mientras cambias el estilo artístico, o aplica estilos artísticos a nuevas escenas",
224
+ "thumbnailVariant": "hoverDissolve",
218
225
  "mediaType": "image",
219
226
  "mediaSubtype": "webp",
220
- "description": "Mejorar imágenes usando modelos ESRGAN para aumentar la calidad.",
221
- "thumbnailVariant": "compareSlider",
222
- "tags": ["Mejorar", "Imagen"],
223
- "models": ["SD1.5", "Stability"],
224
- "date": "2025-03-01",
225
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/upscale_models/",
226
- "size": 2201170739,
227
- "vram": 6442450944
227
+ "tags": ["Imagen a imagen", "Imagen"],
228
+ "models": ["Flux", "BFL"],
229
+ "date": "2025-09-02",
230
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-uso",
231
+ "size": 18597208392,
232
+ "vram": 19864223744
228
233
  },
229
234
  {
230
- "name": "hiresfix_esrgan_workflow",
231
- "title": "Flujo de trabajo ESRGAN HiresFix",
235
+ "name": "flux_schnell",
236
+ "title": "Flux Schnell fp8",
232
237
  "mediaType": "image",
233
238
  "mediaSubtype": "webp",
234
- "description": "Mejorar imágenes usando modelos ESRGAN durante pasos intermedios de generación.",
235
- "thumbnailVariant": "compareSlider",
236
- "tags": ["Mejorar", "Imagen"],
237
- "models": ["SD1.5", "Stability"],
239
+ "description": "Generar rápidamente imágenes con la versión cuantizada Flux Schnell fp8. Ideal para hardware de gama baja, requiere solo 4 pasos para generar imágenes.",
240
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
241
+ "tags": ["Texto a imagen", "Imagen"],
242
+ "models": ["Flux", "BFL"],
238
243
  "date": "2025-03-01",
239
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#non-latent-upscaling",
240
- "size": 2201170739,
241
- "vram": 6442450944
244
+ "size": 17233556275,
245
+ "vram": 18253611008
242
246
  },
243
247
  {
244
- "name": "latent_upscale_different_prompt_model",
245
- "title": "Mejora latente con modelo de indicación diferente",
248
+ "name": "flux1_krea_dev",
249
+ "title": "Flux.1 Krea Dev",
246
250
  "mediaType": "image",
247
251
  "mediaSubtype": "webp",
248
- "description": "Mejorar imágenes mientras se cambian las indicaciones a través de pasos de generación.",
249
- "thumbnailVariant": "zoomHover",
250
- "tags": ["Mejorar", "Imagen"],
251
- "models": ["SD1.5", "Stability"],
252
+ "description": "Un modelo FLUX afinado que lleva el fotorrealismo al máximo",
253
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux1-krea-dev",
254
+ "tags": ["Texto a imagen", "Imagen"],
255
+ "models": ["Flux", "BFL"],
256
+ "date": "2025-07-31",
257
+ "size": 22269405430,
258
+ "vram": 23085449216
259
+ },
260
+ {
261
+ "name": "flux_dev_full_text_to_image",
262
+ "title": "Texto a imagen completo Flux Dev",
263
+ "mediaType": "image",
264
+ "mediaSubtype": "webp",
265
+ "description": "Generar imágenes de alta calidad con la versión completa de Flux Dev. Requiere mayor VRAM y múltiples archivos de modelo, pero proporciona la mejor capacidad de seguimiento de indicaciones y calidad de imagen.",
266
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
267
+ "tags": ["Texto a imagen", "Imagen"],
268
+ "models": ["Flux", "BFL"],
252
269
  "date": "2025-03-01",
253
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#more-examples",
254
- "size": 4262755041,
255
- "vram": 5153960755
270
+ "size": 34177202258,
271
+ "vram": 23622320128
256
272
  },
257
273
  {
258
- "name": "controlnet_example",
259
- "title": "ControlNet garabato",
274
+ "name": "flux_schnell_full_text_to_image",
275
+ "title": "Texto a imagen completo Flux Schnell",
260
276
  "mediaType": "image",
261
277
  "mediaSubtype": "webp",
262
- "description": "Generar imágenes guiadas por imágenes de referencia de garabatos usando ControlNet.",
263
- "thumbnailVariant": "hoverDissolve",
264
- "tags": ["ControlNet", "Imagen"],
265
- "models": ["SD1.5", "Stability"],
278
+ "description": "Generar rápidamente imágenes con la versión completa de Flux Schnell. Usa licencia Apache2.0, requiere solo 4 pasos para generar imágenes manteniendo buena calidad de imagen.",
279
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
280
+ "tags": ["Texto a imagen", "Imagen"],
281
+ "models": ["Flux", "BFL"],
266
282
  "date": "2025-03-01",
267
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/",
268
- "size": 3189013217,
269
- "vram": 6442450944
283
+ "size": 34155727421
270
284
  },
271
285
  {
272
- "name": "2_pass_pose_worship",
273
- "title": "ControlNet pose 2 pasos",
286
+ "name": "flux_fill_inpaint_example",
287
+ "title": "Inpaint Flux",
274
288
  "mediaType": "image",
275
289
  "mediaSubtype": "webp",
276
- "description": "Generar imágenes guiadas por referencias de pose usando ControlNet.",
277
- "thumbnailVariant": "hoverDissolve",
278
- "tags": ["ControlNet", "Imagen"],
279
- "models": ["SD1.5", "Stability"],
290
+ "description": "Rellenar partes faltantes de imágenes usando inpainting de Flux.",
291
+ "thumbnailVariant": "compareSlider",
292
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
293
+ "tags": ["Imagen a imagen", "Inpaint", "Imagen"],
294
+ "models": ["Flux", "BFL"],
280
295
  "date": "2025-03-01",
281
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#pose-controlnet",
282
- "size": 4660039516,
283
- "vram": 6442450944
296
+ "size": 10372346020
284
297
  },
285
298
  {
286
- "name": "depth_controlnet",
287
- "title": "ControlNet profundidad",
299
+ "name": "flux_fill_outpaint_example",
300
+ "title": "Outpaint Flux",
288
301
  "mediaType": "image",
289
302
  "mediaSubtype": "webp",
290
- "description": "Generar imágenes guiadas por información de profundidad usando ControlNet.",
291
- "thumbnailVariant": "hoverDissolve",
292
- "tags": ["ControlNet", "Imagen", "Texto a imagen"],
293
- "models": ["SD1.5", "Stability"],
303
+ "description": "Extender imágenes más allá de los límites usando outpainting de Flux.",
304
+ "thumbnailVariant": "compareSlider",
305
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
306
+ "tags": ["Outpaint", "Imagen", "Imagen a imagen"],
307
+ "models": ["Flux", "BFL"],
294
308
  "date": "2025-03-01",
295
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
296
- "size": 2888365507,
297
- "vram": 6442450944
309
+ "size": 10372346020
298
310
  },
299
311
  {
300
- "name": "depth_t2i_adapter",
301
- "title": "Adaptador T2I profundidad",
312
+ "name": "flux_canny_model_example",
313
+ "title": "Modelo Canny Flux",
302
314
  "mediaType": "image",
303
315
  "mediaSubtype": "webp",
304
- "description": "Generar imágenes guiadas por información de profundidad usando adaptador T2I.",
316
+ "description": "Generar imágenes guiadas por detección de bordes usando Flux Canny.",
305
317
  "thumbnailVariant": "hoverDissolve",
306
- "tags": ["ControlNet", "Imagen", "Texto a imagen"],
307
- "models": ["SD1.5", "Stability"],
318
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
319
+ "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
320
+ "models": ["Flux", "BFL"],
308
321
  "date": "2025-03-01",
309
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
310
- "size": 2523293286,
311
- "vram": 6442450944
322
+ "size": 34177202258
312
323
  },
313
324
  {
314
- "name": "mixing_controlnets",
315
- "title": "Mezcla de ControlNets",
325
+ "name": "flux_depth_lora_example",
326
+ "title": "LoRA de profundidad Flux",
316
327
  "mediaType": "image",
317
328
  "mediaSubtype": "webp",
318
- "description": "Generar imágenes combinando múltiples modelos ControlNet.",
329
+ "description": "Generar imágenes guiadas por información de profundidad usando Flux LoRA.",
319
330
  "thumbnailVariant": "hoverDissolve",
320
- "tags": ["ControlNet", "Imagen", "Texto a imagen"],
321
- "models": ["SD1.5", "Stability"],
331
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
332
+ "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
333
+ "models": ["Flux", "BFL"],
322
334
  "date": "2025-03-01",
323
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#mixing-controlnets",
324
- "size": 3328599654,
325
- "vram": 6442450944
326
- }
327
- ]
328
- },
329
- {
330
- "moduleName": "default",
331
- "type": "image",
332
- "category": "GENERATION TYPE",
333
- "icon": "icon-[lucide--image]",
334
- "title": "Image",
335
- "templates": [
335
+ "size": 35412005356
336
+ },
336
337
  {
337
- "name": "image_flux2",
338
- "title": "Flux.2 Dev",
338
+ "name": "flux_redux_model_example",
339
+ "title": "Modelo Redux Flux",
339
340
  "mediaType": "image",
340
341
  "mediaSubtype": "webp",
341
- "thumbnailVariant": "compareSlider",
342
- "description": "Genera imágenes fotorrealistas con coherencia multi-referencia y renderizado profesional de texto.",
343
- "tags": ["Texto a imagen", "Imagen", "Edición de imagen"],
344
- "models": ["Flux.2 Dev", "BFL"],
345
- "date": "2025-11-26",
346
- "size": 71382356459,
347
- "vram": 0
342
+ "description": "Generar imágenes transfiriendo estilo de imágenes de referencia usando Flux Redux.",
343
+ "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
344
+ "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
345
+ "models": ["Flux", "BFL"],
346
+ "date": "2025-03-01",
347
+ "size": 35154307318
348
348
  },
349
349
  {
350
- "name": "image_flux2_fp8",
351
- "title": "Maqueta de producto (Flux.2 Dev FP8)",
350
+ "name": "image_omnigen2_t2i",
351
+ "title": "Texto a imagen OmniGen2",
352
352
  "mediaType": "image",
353
353
  "mediaSubtype": "webp",
354
- "description": "Crea maquetas de productos aplicando patrones de diseño a envases, tazas y otros productos usando consistencia multi-referencia.",
355
- "tags": ["Texto a imagen", "Imagen", "Edición de imagen", "Maqueta", "Diseño de producto"],
356
- "models": ["Flux.2 Dev", "BFL"],
357
- "date": "2025-11-26",
358
- "size": 53837415055,
359
- "vram": 0
354
+ "description": "Generar imágenes de alta calidad a partir de indicaciones de texto usando el modelo multimodal unificado de 7B de OmniGen2 con arquitectura de doble ruta.",
355
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
356
+ "tags": ["Texto a imagen", "Imagen"],
357
+ "models": ["OmniGen"],
358
+ "date": "2025-06-30",
359
+ "size": 15784004813
360
360
  },
361
361
  {
362
- "name": "image_z_image_turbo",
363
- "title": "Z-Image-Turbo texto a imagen",
362
+ "name": "image_omnigen2_image_edit",
363
+ "title": "Edición de imagen OmniGen2",
364
364
  "mediaType": "image",
365
365
  "mediaSubtype": "webp",
366
- "description": "Modelo fundacional eficiente de generación de imágenes con transformador de difusión de flujo único, compatible con inglés y chino.",
367
- "tags": ["Texto a imagen", "Imagen"],
368
- "models": ["Z-Image-Turbo"],
369
- "date": "2025-11-27",
370
- "size": 35326050304
366
+ "thumbnailVariant": "hoverDissolve",
367
+ "description": "Editar imágenes con instrucciones de lenguaje natural usando las capacidades avanzadas de edición de imágenes y soporte de renderizado de texto de OmniGen2.",
368
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
369
+ "tags": ["Edición de imagen", "Imagen"],
370
+ "models": ["OmniGen"],
371
+ "date": "2025-06-30",
372
+ "size": 15784004813
371
373
  },
372
374
  {
373
- "name": "image_qwen_image",
374
- "title": "Texto a imagen Qwen-Image",
375
+ "name": "hidream_i1_dev",
376
+ "title": "HiDream I1 Dev",
375
377
  "mediaType": "image",
376
378
  "mediaSubtype": "webp",
377
- "description": "Generar imágenes con capacidad excepcional de renderizado y edición de texto multilingüe usando el modelo MMDiT de 20B de Qwen-Image.",
378
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
379
+ "description": "Generar imágenes con HiDream I1 Dev - Versión equilibrada con 28 pasos de inferencia, adecuada para hardware de gama media.",
380
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
379
381
  "tags": ["Texto a imagen", "Imagen"],
380
- "models": ["Qwen-Image"],
381
- "date": "2025-08-05",
382
- "size": 31772020572
382
+ "models": ["HiDream"],
383
+ "date": "2025-04-17",
384
+ "size": 33318208799
383
385
  },
384
386
  {
385
- "name": "image_qwen_image_instantx_controlnet",
386
- "title": "Qwen-Image InstantX ControlNet",
387
+ "name": "hidream_i1_fast",
388
+ "title": "HiDream I1 Fast",
387
389
  "mediaType": "image",
388
390
  "mediaSubtype": "webp",
389
- "description": "Genera imágenes con Qwen-Image InstantX ControlNet, compatible con canny, bordes suaves, profundidad y pose",
390
- "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
391
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
392
- "models": ["Qwen-Image"],
393
- "date": "2025-08-23",
394
- "size": 35304631173
395
- },
396
- {
397
- "name": "image_qwen_image_instantx_inpainting_controlnet",
398
- "title": "Qwen-Image InstantX ControlNet de Inpainting",
399
- "mediaType": "image",
400
- "mediaSubtype": "webp",
401
- "thumbnailVariant": "compareSlider",
402
- "description": "Inpainting profesional y edición de imágenes con Qwen-Image InstantX ControlNet. Compatible con reemplazo de objetos, modificación de texto, cambios de fondo y outpainting.",
403
- "tags": ["Imagen a imagen", "Imagen", "ControlNet", "Inpaint"],
404
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
405
- "models": ["Qwen-Image"],
406
- "date": "2025-09-12",
407
- "size": 36013300777
408
- },
409
- {
410
- "name": "image_qwen_image_union_control_lora",
411
- "title": "Control unificado Qwen-Image",
412
- "mediaType": "image",
413
- "mediaSubtype": "webp",
414
- "description": "Generar imágenes con control estructural preciso usando el ControlNet LoRA unificado de Qwen-Image. Soporta múltiples tipos de control incluyendo canny, profundidad, lineart, softedge, normal y openpose para aplicaciones creativas diversas.",
415
- "tags": ["Texto a imagen", "Imagen", "ControlNet"],
416
- "models": ["Qwen-Image"],
417
- "date": "2025-08-23",
418
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
419
- "size": 32716913377
420
- },
421
- {
422
- "name": "image_qwen_image_controlnet_patch",
423
- "title": "Parche de modelo Qwen-Image ControlNet",
424
- "mediaType": "image",
425
- "mediaSubtype": "webp",
426
- "thumbnailVariant": "compareSlider",
427
- "description": "Controla la generación de imágenes usando modelos Qwen-Image ControlNet. Compatible con controles canny, profundidad e inpainting mediante parcheo de modelo.",
428
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
429
- "tags": ["Texto a imagen", "Imagen", "ControlNet"],
430
- "models": ["Qwen-Image"],
431
- "date": "2025-08-24",
432
- "size": 34037615821
391
+ "description": "Generar rápidamente imágenes con HiDream I1 Fast - Versión ligera con 16 pasos de inferencia, ideal para vistas previas rápidas en hardware de gama baja.",
392
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
393
+ "tags": ["Texto a imagen", "Imagen"],
394
+ "models": ["HiDream"],
395
+ "date": "2025-04-17",
396
+ "size": 24234352968
433
397
  },
434
398
  {
435
- "name": "image_qwen_image_edit_2509",
436
- "title": "Qwen Edición de Imagen 2509",
399
+ "name": "hidream_i1_full",
400
+ "title": "HiDream I1 Full",
437
401
  "mediaType": "image",
438
402
  "mediaSubtype": "webp",
439
- "thumbnailVariant": "compareSlider",
440
- "description": "Edición avanzada de imágenes con soporte multi-imagen, consistencia mejorada e integración de ControlNet.",
441
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
442
- "tags": ["Imagen a imagen", "Edición de imagen", "ControlNet"],
443
- "models": ["Qwen-Image"],
444
- "date": "2025-09-25",
445
- "size": 31772020572
403
+ "description": "Generar imágenes con HiDream I1 Full - Versión completa con 50 pasos de inferencia para la mejor calidad de salida.",
404
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
405
+ "tags": ["Texto a imagen", "Imagen"],
406
+ "models": ["HiDream"],
407
+ "date": "2025-04-17",
408
+ "size": 24234352968
446
409
  },
447
410
  {
448
- "name": "image_qwen_image_edit",
449
- "title": "Edición de imagen Qwen",
411
+ "name": "hidream_e1_1",
412
+ "title": "Edición de imagen HiDream E1.1",
450
413
  "mediaType": "image",
451
414
  "mediaSubtype": "webp",
452
415
  "thumbnailVariant": "compareSlider",
453
- "description": "Editar imágenes con edición precisa de texto bilingüe y capacidades de edición dual semántica/apariencia usando el modelo MMDiT de 20B de Qwen-Image-Edit.",
454
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
455
- "tags": ["Imagen a imagen", "Edición de imagen"],
456
- "models": ["Qwen-Image"],
457
- "date": "2025-08-18",
458
- "size": 31772020572
416
+ "description": "Editar imágenes con HiDream E1.1 Es mejor en calidad de imagen y precisión de edición que HiDream-E1-Full.",
417
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
418
+ "tags": ["Edición de imagen", "Imagen"],
419
+ "models": ["HiDream"],
420
+ "date": "2025-07-21",
421
+ "size": 50422916055
459
422
  },
460
423
  {
461
- "name": "image_chrono_edit_14B",
462
- "title": "ChronoEdit 14B",
424
+ "name": "hidream_e1_full",
425
+ "title": "Edición de imagen HiDream E1",
463
426
  "mediaType": "image",
464
427
  "mediaSubtype": "webp",
465
428
  "thumbnailVariant": "compareSlider",
466
- "description": "Edición de imágenes impulsada por la comprensión dinámica de modelos de video, creando resultados físicamente plausibles mientras preserva la consistencia del personaje y el estilo.",
467
- "tags": ["Edición de imagen", "Imagen a imagen"],
468
- "models": ["Wan2.1", "ChronoEdit", "Nvidia"],
469
- "date": "2025-11-03",
470
- "size": 40459304
471
- },
472
- {
473
- "name": "flux_kontext_dev_basic",
474
- "title": "Flux Kontext Dev(Básico)",
475
- "mediaType": "image",
476
- "mediaSubtype": "webp",
477
- "thumbnailVariant": "hoverDissolve",
478
- "description": "Editar imagen usando Flux Kontext con visibilidad completa de nodos, perfecto para aprender el flujo de trabajo.",
479
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev",
480
- "tags": ["Edición de imagen", "Imagen a imagen"],
481
- "models": ["Flux", "BFL"],
482
- "date": "2025-06-26",
483
- "size": 17641578168,
484
- "vram": 19327352832
485
- },
486
- {
487
- "name": "image_chroma1_radiance_text_to_image",
488
- "title": "Chroma1 Radiance Texto a Imagen",
489
- "mediaType": "image",
490
- "mediaSubtype": "webp",
491
- "description": "Chroma1-Radiance trabaja directamente con píxeles de imagen en lugar de latentes comprimidos, ofreciendo imágenes de mayor calidad con menos artefactos y distorsión.",
492
- "tags": ["Texto a imagen", "Imagen"],
493
- "models": ["Chroma"],
494
- "date": "2025-09-18",
495
- "size": 23622320128,
496
- "vram": 23622320128
497
- },
498
- {
499
- "name": "image_netayume_lumina_t2i",
500
- "title": "NetaYume Lumina Texto a Imagen",
501
- "mediaType": "image",
502
- "mediaSubtype": "webp",
503
- "description": "Generación de imágenes de estilo anime de alta calidad con comprensión mejorada de personajes y texturas detalladas. Ajustado finamente desde Neta Lumina en el conjunto de datos Danbooru.",
504
- "tags": ["Texto a imagen", "Imagen", "Anime"],
505
- "models": ["OmniGen"],
506
- "date": "2025-10-10",
507
- "size": 10619306639
429
+ "description": "Editar imágenes con HiDream E1 - Modelo profesional de edición de imagen con lenguaje natural.",
430
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
431
+ "tags": ["Edición de imagen", "Imagen"],
432
+ "models": ["HiDream"],
433
+ "date": "2025-05-01",
434
+ "size": 34209414513
508
435
  },
509
436
  {
510
- "name": "image_chroma_text_to_image",
511
- "title": "Texto a imagen Chroma",
437
+ "name": "sd3.5_simple_example",
438
+ "title": "SD3.5 Simple",
512
439
  "mediaType": "image",
513
440
  "mediaSubtype": "webp",
514
- "description": "Chroma está modificado de flux y tiene algunos cambios en la arquitectura.",
441
+ "description": "Generar imágenes usando SD 3.5.",
442
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35",
515
443
  "tags": ["Texto a imagen", "Imagen"],
516
- "models": ["Chroma", "Flux"],
517
- "date": "2025-06-04",
518
- "size": 23289460163,
519
- "vram": 15569256448
444
+ "models": ["SD3.5", "Stability"],
445
+ "date": "2025-03-01",
446
+ "size": 14935748772
520
447
  },
521
448
  {
522
- "name": "image_flux.1_fill_dev_OneReward",
523
- "title": "Flux.1 Dev OneReward",
449
+ "name": "sd3.5_large_canny_controlnet_example",
450
+ "title": "ControlNet Canny grande SD3.5",
524
451
  "mediaType": "image",
525
452
  "mediaSubtype": "webp",
526
- "thumbnailVariant": "compareSlider",
527
- "description": "Supports various tasks such as image inpainting, outpainting, and object removal",
528
- "tags": ["Inpaint", "Outpaint"],
529
- "models": ["Flux", "BFL"],
530
- "date": "2025-09-21",
531
- "size": 29001766666,
532
- "vram": 21474836480
453
+ "description": "Generar imágenes guiadas por detección de bordes usando ControlNet Canny SD 3.5.",
454
+ "thumbnailVariant": "hoverDissolve",
455
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
456
+ "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
457
+ "models": ["SD3.5", "Stability"],
458
+ "date": "2025-03-01",
459
+ "size": 23590107873
533
460
  },
534
461
  {
535
- "name": "flux_dev_checkpoint_example",
536
- "title": "Flux Dev fp8",
462
+ "name": "sd3.5_large_depth",
463
+ "title": "Profundidad grande SD3.5",
537
464
  "mediaType": "image",
538
465
  "mediaSubtype": "webp",
539
- "description": "Generar imágenes usando la versión cuantizada Flux Dev fp8. Adecuado para dispositivos con VRAM limitada, requiere solo un archivo de modelo, pero la calidad de imagen es ligeramente inferior a la versión completa.",
540
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
541
- "tags": ["Texto a imagen", "Imagen"],
542
- "models": ["Flux", "BFL"],
466
+ "description": "Generar imágenes guiadas por información de profundidad usando SD 3.5.",
467
+ "thumbnailVariant": "hoverDissolve",
468
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
469
+ "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
470
+ "models": ["SD3.5", "Stability"],
543
471
  "date": "2025-03-01",
544
- "size": 17244293693,
545
- "vram": 18253611008
472
+ "size": 23590107873
546
473
  },
547
474
  {
548
- "name": "flux1_dev_uso_reference_image_gen",
549
- "title": "Generación de Imágenes de Referencia Flux.1 Dev USO",
550
- "description": "Usa imágenes de referencia para controlar tanto el estilo como el sujeto: mantén el rostro de tu personaje mientras cambias el estilo artístico, o aplica estilos artísticos a nuevas escenas",
551
- "thumbnailVariant": "hoverDissolve",
475
+ "name": "sd3.5_large_blur",
476
+ "title": "Desenfoque grande SD3.5",
552
477
  "mediaType": "image",
553
478
  "mediaSubtype": "webp",
479
+ "description": "Generar imágenes guiadas por imágenes de referencia desenfocadas usando SD 3.5.",
480
+ "thumbnailVariant": "hoverDissolve",
481
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
554
482
  "tags": ["Imagen a imagen", "Imagen"],
555
- "models": ["Flux", "BFL"],
556
- "date": "2025-09-02",
557
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-uso",
558
- "size": 18597208392,
559
- "vram": 19864223744
483
+ "models": ["SD3.5", "Stability"],
484
+ "date": "2025-03-01",
485
+ "size": 23590107873
560
486
  },
561
487
  {
562
- "name": "flux_schnell",
563
- "title": "Flux Schnell fp8",
488
+ "name": "sdxl_simple_example",
489
+ "title": "SDXL Simple",
564
490
  "mediaType": "image",
565
491
  "mediaSubtype": "webp",
566
- "description": "Generar rápidamente imágenes con la versión cuantizada Flux Schnell fp8. Ideal para hardware de gama baja, requiere solo 4 pasos para generar imágenes.",
567
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
492
+ "description": "Generar imágenes de alta calidad usando SDXL.",
493
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
568
494
  "tags": ["Texto a imagen", "Imagen"],
569
- "models": ["Flux", "BFL"],
495
+ "models": ["SDXL", "Stability"],
570
496
  "date": "2025-03-01",
571
- "size": 17233556275,
572
- "vram": 18253611008
497
+ "size": 13013750907
573
498
  },
574
499
  {
575
- "name": "flux1_krea_dev",
576
- "title": "Flux.1 Krea Dev",
500
+ "name": "sdxl_refiner_prompt_example",
501
+ "title": "Refinador de indicaciones SDXL",
577
502
  "mediaType": "image",
578
503
  "mediaSubtype": "webp",
579
- "description": "Un modelo FLUX afinado que lleva el fotorrealismo al máximo",
580
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux1-krea-dev",
504
+ "description": "Mejorar imágenes SDXL usando modelos refinadores.",
505
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
581
506
  "tags": ["Texto a imagen", "Imagen"],
582
- "models": ["Flux", "BFL"],
583
- "date": "2025-07-31",
584
- "size": 22269405430,
585
- "vram": 23085449216
507
+ "models": ["SDXL", "Stability"],
508
+ "date": "2025-03-01",
509
+ "size": 13013750907
586
510
  },
587
511
  {
588
- "name": "flux_dev_full_text_to_image",
589
- "title": "Texto a imagen completo Flux Dev",
512
+ "name": "sdxl_revision_text_prompts",
513
+ "title": "Indicaciones de texto de revisión SDXL",
590
514
  "mediaType": "image",
591
515
  "mediaSubtype": "webp",
592
- "description": "Generar imágenes de alta calidad con la versión completa de Flux Dev. Requiere mayor VRAM y múltiples archivos de modelo, pero proporciona la mejor capacidad de seguimiento de indicaciones y calidad de imagen.",
593
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
516
+ "description": "Generar imágenes transfiriendo conceptos de imágenes de referencia usando Revisión SDXL.",
517
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
594
518
  "tags": ["Texto a imagen", "Imagen"],
595
- "models": ["Flux", "BFL"],
519
+ "models": ["SDXL", "Stability"],
596
520
  "date": "2025-03-01",
597
- "size": 34177202258,
598
- "vram": 23622320128
521
+ "size": 10630044058
599
522
  },
600
523
  {
601
- "name": "flux_schnell_full_text_to_image",
602
- "title": "Texto a imagen completo Flux Schnell",
524
+ "name": "sdxlturbo_example",
525
+ "title": "SDXL Turbo",
603
526
  "mediaType": "image",
604
527
  "mediaSubtype": "webp",
605
- "description": "Generar rápidamente imágenes con la versión completa de Flux Schnell. Usa licencia Apache2.0, requiere solo 4 pasos para generar imágenes manteniendo buena calidad de imagen.",
606
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
528
+ "description": "Generar imágenes en un solo paso usando SDXL Turbo.",
529
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdturbo/",
607
530
  "tags": ["Texto a imagen", "Imagen"],
608
- "models": ["Flux", "BFL"],
531
+ "models": ["SDXL", "Stability"],
609
532
  "date": "2025-03-01",
610
- "size": 34155727421
533
+ "size": 6936372183
611
534
  },
612
535
  {
613
- "name": "flux_fill_inpaint_example",
614
- "title": "Inpaint Flux",
615
- "mediaType": "image",
616
- "mediaSubtype": "webp",
617
- "description": "Rellenar partes faltantes de imágenes usando inpainting de Flux.",
618
- "thumbnailVariant": "compareSlider",
619
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
620
- "tags": ["Imagen a imagen", "Inpaint", "Imagen"],
621
- "models": ["Flux", "BFL"],
622
- "date": "2025-03-01",
623
- "size": 10372346020
624
- },
625
- {
626
- "name": "flux_fill_outpaint_example",
627
- "title": "Outpaint Flux",
628
- "mediaType": "image",
629
- "mediaSubtype": "webp",
630
- "description": "Extender imágenes más allá de los límites usando outpainting de Flux.",
631
- "thumbnailVariant": "compareSlider",
632
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
633
- "tags": ["Outpaint", "Imagen", "Imagen a imagen"],
634
- "models": ["Flux", "BFL"],
635
- "date": "2025-03-01",
636
- "size": 10372346020
637
- },
638
- {
639
- "name": "flux_canny_model_example",
640
- "title": "Modelo Canny Flux",
641
- "mediaType": "image",
642
- "mediaSubtype": "webp",
643
- "description": "Generar imágenes guiadas por detección de bordes usando Flux Canny.",
644
- "thumbnailVariant": "hoverDissolve",
645
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
646
- "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
647
- "models": ["Flux", "BFL"],
648
- "date": "2025-03-01",
649
- "size": 34177202258
650
- },
651
- {
652
- "name": "flux_depth_lora_example",
653
- "title": "LoRA de profundidad Flux",
654
- "mediaType": "image",
655
- "mediaSubtype": "webp",
656
- "description": "Generar imágenes guiadas por información de profundidad usando Flux LoRA.",
657
- "thumbnailVariant": "hoverDissolve",
658
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
659
- "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
660
- "models": ["Flux", "BFL"],
661
- "date": "2025-03-01",
662
- "size": 35412005356
663
- },
664
- {
665
- "name": "flux_redux_model_example",
666
- "title": "Modelo Redux Flux",
667
- "mediaType": "image",
668
- "mediaSubtype": "webp",
669
- "description": "Generar imágenes transfiriendo estilo de imágenes de referencia usando Flux Redux.",
670
- "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
671
- "tags": ["Imagen a imagen", "ControlNet", "Imagen"],
672
- "models": ["Flux", "BFL"],
673
- "date": "2025-03-01",
674
- "size": 35154307318
675
- },
676
- {
677
- "name": "image_omnigen2_t2i",
678
- "title": "Texto a imagen OmniGen2",
679
- "mediaType": "image",
680
- "mediaSubtype": "webp",
681
- "description": "Generar imágenes de alta calidad a partir de indicaciones de texto usando el modelo multimodal unificado de 7B de OmniGen2 con arquitectura de doble ruta.",
682
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
683
- "tags": ["Texto a imagen", "Imagen"],
684
- "models": ["OmniGen"],
685
- "date": "2025-06-30",
686
- "size": 15784004813
687
- },
688
- {
689
- "name": "image_omnigen2_image_edit",
690
- "title": "Edición de imagen OmniGen2",
691
- "mediaType": "image",
692
- "mediaSubtype": "webp",
693
- "thumbnailVariant": "hoverDissolve",
694
- "description": "Editar imágenes con instrucciones de lenguaje natural usando las capacidades avanzadas de edición de imágenes y soporte de renderizado de texto de OmniGen2.",
695
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
696
- "tags": ["Edición de imagen", "Imagen"],
697
- "models": ["OmniGen"],
698
- "date": "2025-06-30",
699
- "size": 15784004813
700
- },
701
- {
702
- "name": "hidream_i1_dev",
703
- "title": "HiDream I1 Dev",
704
- "mediaType": "image",
705
- "mediaSubtype": "webp",
706
- "description": "Generar imágenes con HiDream I1 Dev - Versión equilibrada con 28 pasos de inferencia, adecuada para hardware de gama media.",
707
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
708
- "tags": ["Texto a imagen", "Imagen"],
709
- "models": ["HiDream"],
710
- "date": "2025-04-17",
711
- "size": 33318208799
712
- },
713
- {
714
- "name": "hidream_i1_fast",
715
- "title": "HiDream I1 Fast",
716
- "mediaType": "image",
717
- "mediaSubtype": "webp",
718
- "description": "Generar rápidamente imágenes con HiDream I1 Fast - Versión ligera con 16 pasos de inferencia, ideal para vistas previas rápidas en hardware de gama baja.",
719
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
720
- "tags": ["Texto a imagen", "Imagen"],
721
- "models": ["HiDream"],
722
- "date": "2025-04-17",
723
- "size": 24234352968
724
- },
725
- {
726
- "name": "hidream_i1_full",
727
- "title": "HiDream I1 Full",
728
- "mediaType": "image",
729
- "mediaSubtype": "webp",
730
- "description": "Generar imágenes con HiDream I1 Full - Versión completa con 50 pasos de inferencia para la mejor calidad de salida.",
731
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
732
- "tags": ["Texto a imagen", "Imagen"],
733
- "models": ["HiDream"],
734
- "date": "2025-04-17",
735
- "size": 24234352968
736
- },
737
- {
738
- "name": "hidream_e1_1",
739
- "title": "Edición de imagen HiDream E1.1",
740
- "mediaType": "image",
741
- "mediaSubtype": "webp",
742
- "thumbnailVariant": "compareSlider",
743
- "description": "Editar imágenes con HiDream E1.1 – Es mejor en calidad de imagen y precisión de edición que HiDream-E1-Full.",
744
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
745
- "tags": ["Edición de imagen", "Imagen"],
746
- "models": ["HiDream"],
747
- "date": "2025-07-21",
748
- "size": 50422916055
749
- },
750
- {
751
- "name": "hidream_e1_full",
752
- "title": "Edición de imagen HiDream E1",
753
- "mediaType": "image",
754
- "mediaSubtype": "webp",
755
- "thumbnailVariant": "compareSlider",
756
- "description": "Editar imágenes con HiDream E1 - Modelo profesional de edición de imagen con lenguaje natural.",
757
- "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
758
- "tags": ["Edición de imagen", "Imagen"],
759
- "models": ["HiDream"],
760
- "date": "2025-05-01",
761
- "size": 34209414513
762
- },
763
- {
764
- "name": "sd3.5_simple_example",
765
- "title": "SD3.5 Simple",
766
- "mediaType": "image",
767
- "mediaSubtype": "webp",
768
- "description": "Generar imágenes usando SD 3.5.",
769
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35",
770
- "tags": ["Texto a imagen", "Imagen"],
771
- "models": ["SD3.5", "Stability"],
772
- "date": "2025-03-01",
773
- "size": 14935748772
774
- },
775
- {
776
- "name": "sd3.5_large_canny_controlnet_example",
777
- "title": "ControlNet Canny grande SD3.5",
778
- "mediaType": "image",
779
- "mediaSubtype": "webp",
780
- "description": "Generar imágenes guiadas por detección de bordes usando ControlNet Canny SD 3.5.",
781
- "thumbnailVariant": "hoverDissolve",
782
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
783
- "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
784
- "models": ["SD3.5", "Stability"],
785
- "date": "2025-03-01",
786
- "size": 23590107873
787
- },
788
- {
789
- "name": "sd3.5_large_depth",
790
- "title": "Profundidad grande SD3.5",
791
- "mediaType": "image",
792
- "mediaSubtype": "webp",
793
- "description": "Generar imágenes guiadas por información de profundidad usando SD 3.5.",
794
- "thumbnailVariant": "hoverDissolve",
795
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
796
- "tags": ["Imagen a imagen", "Imagen", "ControlNet"],
797
- "models": ["SD3.5", "Stability"],
798
- "date": "2025-03-01",
799
- "size": 23590107873
800
- },
801
- {
802
- "name": "sd3.5_large_blur",
803
- "title": "Desenfoque grande SD3.5",
804
- "mediaType": "image",
805
- "mediaSubtype": "webp",
806
- "description": "Generar imágenes guiadas por imágenes de referencia desenfocadas usando SD 3.5.",
807
- "thumbnailVariant": "hoverDissolve",
808
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
809
- "tags": ["Imagen a imagen", "Imagen"],
810
- "models": ["SD3.5", "Stability"],
811
- "date": "2025-03-01",
812
- "size": 23590107873
813
- },
814
- {
815
- "name": "sdxl_simple_example",
816
- "title": "SDXL Simple",
817
- "mediaType": "image",
818
- "mediaSubtype": "webp",
819
- "description": "Generar imágenes de alta calidad usando SDXL.",
820
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
821
- "tags": ["Texto a imagen", "Imagen"],
822
- "models": ["SDXL", "Stability"],
823
- "date": "2025-03-01",
824
- "size": 13013750907
825
- },
826
- {
827
- "name": "sdxl_refiner_prompt_example",
828
- "title": "Refinador de indicaciones SDXL",
829
- "mediaType": "image",
830
- "mediaSubtype": "webp",
831
- "description": "Mejorar imágenes SDXL usando modelos refinadores.",
832
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
833
- "tags": ["Texto a imagen", "Imagen"],
834
- "models": ["SDXL", "Stability"],
835
- "date": "2025-03-01",
836
- "size": 13013750907
837
- },
838
- {
839
- "name": "sdxl_revision_text_prompts",
840
- "title": "Indicaciones de texto de revisión SDXL",
841
- "mediaType": "image",
842
- "mediaSubtype": "webp",
843
- "description": "Generar imágenes transfiriendo conceptos de imágenes de referencia usando Revisión SDXL.",
844
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
845
- "tags": ["Texto a imagen", "Imagen"],
846
- "models": ["SDXL", "Stability"],
847
- "date": "2025-03-01",
848
- "size": 10630044058
849
- },
850
- {
851
- "name": "sdxlturbo_example",
852
- "title": "SDXL Turbo",
853
- "mediaType": "image",
854
- "mediaSubtype": "webp",
855
- "description": "Generar imágenes en un solo paso usando SDXL Turbo.",
856
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdturbo/",
857
- "tags": ["Texto a imagen", "Imagen"],
858
- "models": ["SDXL", "Stability"],
859
- "date": "2025-03-01",
860
- "size": 6936372183
861
- },
862
- {
863
- "name": "image_lotus_depth_v1_1",
864
- "title": "Profundidad Lotus",
536
+ "name": "image_lotus_depth_v1_1",
537
+ "title": "Profundidad Lotus",
865
538
  "mediaType": "image",
866
539
  "mediaSubtype": "webp",
867
540
  "thumbnailVariant": "compareSlider",
@@ -1372,7 +1045,7 @@
1372
1045
  "title": "Hunyuan3D 2.1",
1373
1046
  "mediaType": "image",
1374
1047
  "mediaSubtype": "webp",
1375
- "description": "Genera modelos 3D a partir de imágenes individuales usando Hunyuan3D 2.1.",
1048
+ "description": "Genera modelos 3D a partir de imágenes individuales usando Hunyuan3D 2.0.",
1376
1049
  "tags": ["Imagen a 3D", "3D"],
1377
1050
  "models": ["Hunyuan3D", "Tencent"],
1378
1051
  "date": "2025-03-01",
@@ -2522,5 +2195,332 @@
2522
2195
  "vram": 0
2523
2196
  }
2524
2197
  ]
2198
+ },
2199
+ {
2200
+ "moduleName": "default",
2201
+ "type": "image",
2202
+ "isEssential": true,
2203
+ "title": "Getting Started",
2204
+ "templates": [
2205
+ {
2206
+ "name": "01_qwen_t2i_subgraphed",
2207
+ "title": "Texto a imagen (Nuevo)",
2208
+ "mediaType": "image",
2209
+ "mediaSubtype": "webp",
2210
+ "description": "Genera imágenes a partir de indicaciones de texto usando el modelo Qwen-Image",
2211
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
2212
+ "tags": ["Texto a imagen", "Imagen"],
2213
+ "models": ["Qwen-Image"],
2214
+ "date": "2025-10-17",
2215
+ "size": 31772020572
2216
+ },
2217
+ {
2218
+ "name": "02_qwen_Image_edit_subgraphed",
2219
+ "title": "Edición de imágenes (Nuevo)",
2220
+ "mediaType": "image",
2221
+ "mediaSubtype": "webp",
2222
+ "description": "Edita tus imágenes con Qwen-Image-Edit",
2223
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
2224
+ "tags": ["Imagen a imagen", "Edición de imagen", "ControlNet"],
2225
+ "models": ["Qwen-Image"],
2226
+ "date": "2025-10-17",
2227
+ "size": 31772020572
2228
+ },
2229
+ {
2230
+ "name": "03_video_wan2_2_14B_i2v_subgraphed",
2231
+ "title": "Imagen a Video (Nuevo)",
2232
+ "description": "Genera videos a partir de una imagen usando Wan2.2 14B",
2233
+ "mediaType": "image",
2234
+ "mediaSubtype": "webp",
2235
+ "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
2236
+ "tags": ["Imagen a video", "Video"],
2237
+ "models": ["Wan2.2", "Wan"],
2238
+ "date": "2025-10-17",
2239
+ "size": 38031935406
2240
+ },
2241
+ {
2242
+ "name": "04_hunyuan_3d_2.1_subgraphed",
2243
+ "title": "Imagen a 3D (Nuevo)",
2244
+ "mediaType": "image",
2245
+ "mediaSubtype": "webp",
2246
+ "description": "Genera modelos 3D a partir de imágenes únicas usando Hunyuan3D 2.0.",
2247
+ "tags": ["Imagen a 3D", "3D"],
2248
+ "models": ["Hunyuan3D"],
2249
+ "date": "2025-10-17",
2250
+ "tutorialUrl": "https://docs.comfy.org/tutorials/3d/hunyuan3D-2",
2251
+ "size": 4928474972
2252
+ },
2253
+ {
2254
+ "name": "05_audio_ace_step_1_t2a_song_subgraphed",
2255
+ "title": "Texto a audio (Nuevo)",
2256
+ "mediaType": "image",
2257
+ "mediaSubtype": "webp",
2258
+ "description": "Genera audio a partir de indicaciones de texto usando ACE-Step v1",
2259
+ "tags": ["Texto a audio", "Audio"],
2260
+ "models": ["ACE-Step"],
2261
+ "date": "2025-10-17",
2262
+ "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
2263
+ "size": 7698728878
2264
+ },
2265
+ {
2266
+ "name": "default",
2267
+ "title": "Generación de imágenes",
2268
+ "mediaType": "image",
2269
+ "mediaSubtype": "webp",
2270
+ "description": "Generar imágenes a partir de indicaciones de texto.",
2271
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/text-to-image",
2272
+ "tags": ["Texto a imagen", "Imagen"],
2273
+ "models": ["SD1.5", "Stability"],
2274
+ "date": "2025-03-01",
2275
+ "size": 2136746230,
2276
+ "vram": 3092376453
2277
+ },
2278
+ {
2279
+ "name": "image2image",
2280
+ "title": "Imagen a imagen",
2281
+ "mediaType": "image",
2282
+ "mediaSubtype": "webp",
2283
+ "description": "Transformar imágenes existentes usando indicaciones de texto.",
2284
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/image-to-image",
2285
+ "tags": ["Imagen a imagen", "Imagen"],
2286
+ "models": ["SD1.5", "Stability"],
2287
+ "date": "2025-03-01",
2288
+ "size": 2136746230,
2289
+ "vram": 3092376453,
2290
+ "thumbnailVariant": "hoverDissolve"
2291
+ },
2292
+ {
2293
+ "name": "lora",
2294
+ "title": "LoRA",
2295
+ "mediaType": "image",
2296
+ "mediaSubtype": "webp",
2297
+ "description": "Generar imágenes con modelos LoRA para estilos o temas especializados.",
2298
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
2299
+ "tags": ["Texto a imagen", "Imagen"],
2300
+ "models": ["SD1.5", "Stability"],
2301
+ "date": "2025-03-01",
2302
+ "size": 2437393940,
2303
+ "vram": 3092376453
2304
+ },
2305
+ {
2306
+ "name": "lora_multiple",
2307
+ "title": "LoRA múltiple",
2308
+ "mediaType": "image",
2309
+ "mediaSubtype": "webp",
2310
+ "description": "Generar imágenes combinando múltiples modelos LoRA.",
2311
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
2312
+ "tags": ["Texto a imagen", "Imagen"],
2313
+ "models": ["SD1.5", "Stability"],
2314
+ "date": "2025-03-01",
2315
+ "size": 2437393940,
2316
+ "vram": 3350074491
2317
+ },
2318
+ {
2319
+ "name": "inpaint_example",
2320
+ "title": "Inpainting",
2321
+ "mediaType": "image",
2322
+ "mediaSubtype": "webp",
2323
+ "description": "Editar partes específicas de imágenes sin problemas.",
2324
+ "thumbnailVariant": "compareSlider",
2325
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
2326
+ "tags": ["Inpaint", "Imagen"],
2327
+ "models": ["SD1.5", "Stability"],
2328
+ "date": "2025-03-01",
2329
+ "size": 5218385265,
2330
+ "vram": 4101693768
2331
+ },
2332
+ {
2333
+ "name": "inpaint_model_outpainting",
2334
+ "title": "Outpainting",
2335
+ "mediaType": "image",
2336
+ "mediaSubtype": "webp",
2337
+ "description": "Extender imágenes más allá de sus límites originales.",
2338
+ "thumbnailVariant": "compareSlider",
2339
+ "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
2340
+ "tags": ["Outpaint", "Imagen"],
2341
+ "models": ["SD1.5", "Stability"],
2342
+ "date": "2025-03-01",
2343
+ "size": 5218385265,
2344
+ "vram": 4101693768
2345
+ },
2346
+ {
2347
+ "name": "embedding_example",
2348
+ "title": "Incrustación",
2349
+ "mediaType": "image",
2350
+ "mediaSubtype": "webp",
2351
+ "description": "Generar imágenes usando inversión textual para estilos consistentes.",
2352
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/",
2353
+ "tags": ["Texto a imagen", "Imagen"],
2354
+ "models": ["SD1.5", "Stability"],
2355
+ "date": "2025-03-01",
2356
+ "size": 5218385265,
2357
+ "vram": 4123168604
2358
+ },
2359
+ {
2360
+ "name": "gligen_textbox_example",
2361
+ "title": "Cuadro de texto Gligen",
2362
+ "mediaType": "image",
2363
+ "mediaSubtype": "webp",
2364
+ "description": "Generar imágenes con colocación precisa de objetos usando cuadros de texto.",
2365
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/gligen/",
2366
+ "tags": ["Imagen"],
2367
+ "models": ["SD1.5", "Stability"],
2368
+ "date": "2025-03-01",
2369
+ "size": 2974264852,
2370
+ "vram": 4080218931
2371
+ },
2372
+ {
2373
+ "name": "area_composition",
2374
+ "title": "Composición de área",
2375
+ "mediaType": "image",
2376
+ "mediaSubtype": "webp",
2377
+ "description": "Generar imágenes controlando la composición con áreas definidas.",
2378
+ "tags": ["Texto a imagen", "Imagen"],
2379
+ "models": ["SD1.5", "Stability"],
2380
+ "date": "2025-03-01",
2381
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/",
2382
+ "size": 2469606195,
2383
+ "vram": 6184752906
2384
+ },
2385
+ {
2386
+ "name": "area_composition_square_area_for_subject",
2387
+ "title": "Composición de área área cuadrada para sujeto",
2388
+ "mediaType": "image",
2389
+ "mediaSubtype": "webp",
2390
+ "description": "Generar imágenes con colocación consistente de sujeto usando composición de área.",
2391
+ "tags": ["Texto a imagen", "Imagen"],
2392
+ "models": ["SD1.5", "Stability"],
2393
+ "date": "2025-03-01",
2394
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/#increasing-consistency-of-images-with-area-composition",
2395
+ "size": 2469606195,
2396
+ "vram": 5927054868
2397
+ },
2398
+ {
2399
+ "name": "hiresfix_latent_workflow",
2400
+ "title": "Mejorar",
2401
+ "mediaType": "image",
2402
+ "mediaSubtype": "webp",
2403
+ "description": "Mejorar imágenes aumentando la calidad en el espacio latente.",
2404
+ "thumbnailVariant": "compareSlider",
2405
+ "tags": ["Mejorar", "Imagen"],
2406
+ "models": ["SD1.5", "Stability"],
2407
+ "date": "2025-03-01",
2408
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/",
2409
+ "size": 2136746230,
2410
+ "vram": 3929895076
2411
+ },
2412
+ {
2413
+ "name": "esrgan_example",
2414
+ "title": "ESRGAN",
2415
+ "mediaType": "image",
2416
+ "mediaSubtype": "webp",
2417
+ "description": "Mejorar imágenes usando modelos ESRGAN para aumentar la calidad.",
2418
+ "thumbnailVariant": "compareSlider",
2419
+ "tags": ["Mejorar", "Imagen"],
2420
+ "models": ["SD1.5", "Stability"],
2421
+ "date": "2025-03-01",
2422
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/upscale_models/",
2423
+ "size": 2201170739,
2424
+ "vram": 6442450944
2425
+ },
2426
+ {
2427
+ "name": "hiresfix_esrgan_workflow",
2428
+ "title": "Flujo de trabajo ESRGAN HiresFix",
2429
+ "mediaType": "image",
2430
+ "mediaSubtype": "webp",
2431
+ "description": "Mejorar imágenes usando modelos ESRGAN durante pasos intermedios de generación.",
2432
+ "thumbnailVariant": "compareSlider",
2433
+ "tags": ["Mejorar", "Imagen"],
2434
+ "models": ["SD1.5", "Stability"],
2435
+ "date": "2025-03-01",
2436
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#non-latent-upscaling",
2437
+ "size": 2201170739,
2438
+ "vram": 6442450944
2439
+ },
2440
+ {
2441
+ "name": "latent_upscale_different_prompt_model",
2442
+ "title": "Mejora latente con modelo de indicación diferente",
2443
+ "mediaType": "image",
2444
+ "mediaSubtype": "webp",
2445
+ "description": "Mejorar imágenes mientras se cambian las indicaciones a través de pasos de generación.",
2446
+ "thumbnailVariant": "zoomHover",
2447
+ "tags": ["Mejorar", "Imagen"],
2448
+ "models": ["SD1.5", "Stability"],
2449
+ "date": "2025-03-01",
2450
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#more-examples",
2451
+ "size": 4262755041,
2452
+ "vram": 5153960755
2453
+ },
2454
+ {
2455
+ "name": "controlnet_example",
2456
+ "title": "ControlNet garabato",
2457
+ "mediaType": "image",
2458
+ "mediaSubtype": "webp",
2459
+ "description": "Generar imágenes guiadas por imágenes de referencia de garabatos usando ControlNet.",
2460
+ "thumbnailVariant": "hoverDissolve",
2461
+ "tags": ["ControlNet", "Imagen"],
2462
+ "models": ["SD1.5", "Stability"],
2463
+ "date": "2025-03-01",
2464
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/",
2465
+ "size": 3189013217,
2466
+ "vram": 6442450944
2467
+ },
2468
+ {
2469
+ "name": "2_pass_pose_worship",
2470
+ "title": "ControlNet pose 2 pasos",
2471
+ "mediaType": "image",
2472
+ "mediaSubtype": "webp",
2473
+ "description": "Generar imágenes guiadas por referencias de pose usando ControlNet.",
2474
+ "thumbnailVariant": "hoverDissolve",
2475
+ "tags": ["ControlNet", "Imagen"],
2476
+ "models": ["SD1.5", "Stability"],
2477
+ "date": "2025-03-01",
2478
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#pose-controlnet",
2479
+ "size": 4660039516,
2480
+ "vram": 6442450944
2481
+ },
2482
+ {
2483
+ "name": "depth_controlnet",
2484
+ "title": "ControlNet profundidad",
2485
+ "mediaType": "image",
2486
+ "mediaSubtype": "webp",
2487
+ "description": "Generar imágenes guiadas por información de profundidad usando ControlNet.",
2488
+ "thumbnailVariant": "hoverDissolve",
2489
+ "tags": ["ControlNet", "Imagen", "Texto a imagen"],
2490
+ "models": ["SD1.5", "Stability"],
2491
+ "date": "2025-03-01",
2492
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
2493
+ "size": 2888365507,
2494
+ "vram": 6442450944
2495
+ },
2496
+ {
2497
+ "name": "depth_t2i_adapter",
2498
+ "title": "Adaptador T2I profundidad",
2499
+ "mediaType": "image",
2500
+ "mediaSubtype": "webp",
2501
+ "description": "Generar imágenes guiadas por información de profundidad usando adaptador T2I.",
2502
+ "thumbnailVariant": "hoverDissolve",
2503
+ "tags": ["ControlNet", "Imagen", "Texto a imagen"],
2504
+ "models": ["SD1.5", "Stability"],
2505
+ "date": "2025-03-01",
2506
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
2507
+ "size": 2523293286,
2508
+ "vram": 6442450944
2509
+ },
2510
+ {
2511
+ "name": "mixing_controlnets",
2512
+ "title": "Mezcla de ControlNets",
2513
+ "mediaType": "image",
2514
+ "mediaSubtype": "webp",
2515
+ "description": "Generar imágenes combinando múltiples modelos ControlNet.",
2516
+ "thumbnailVariant": "hoverDissolve",
2517
+ "tags": ["ControlNet", "Imagen", "Texto a imagen"],
2518
+ "models": ["SD1.5", "Stability"],
2519
+ "date": "2025-03-01",
2520
+ "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#mixing-controlnets",
2521
+ "size": 3328599654,
2522
+ "vram": 6442450944
2523
+ }
2524
+ ]
2525
2525
  }
2526
2526
  ]