comfyui-workflow-templates 0.1.96__py3-none-any.whl → 0.1.97__py3-none-any.whl
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of comfyui-workflow-templates might be problematic. Click here for more details.
- comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed-1.webp +0 -0
- comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed.json +1288 -0
- comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed-1.webp +0 -0
- comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed.json +1754 -0
- comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed-1.webp +0 -0
- comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed.json +1416 -0
- comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed-1.webp +0 -0
- comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed.json +850 -0
- comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed-1.webp +0 -0
- comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed.json +1014 -0
- comfyui_workflow_templates/templates/api_rodin_gen2.json +123 -125
- comfyui_workflow_templates/templates/image_qwen_image_instantx_inpainting_controlnet.json +1536 -715
- comfyui_workflow_templates/templates/index.ar.json +2357 -0
- comfyui_workflow_templates/templates/index.es.json +180 -120
- comfyui_workflow_templates/templates/index.fr.json +346 -286
- comfyui_workflow_templates/templates/index.ja.json +227 -167
- comfyui_workflow_templates/templates/index.json +62 -2
- comfyui_workflow_templates/templates/index.ko.json +181 -121
- comfyui_workflow_templates/templates/index.ru.json +220 -160
- comfyui_workflow_templates/templates/index.tr.json +2357 -0
- comfyui_workflow_templates/templates/index.tr_translated.json +2357 -0
- comfyui_workflow_templates/templates/index.zh-TW.json +276 -216
- comfyui_workflow_templates/templates/index.zh.json +233 -173
- comfyui_workflow_templates/templates/video_wan_vace_inpainting.json +1 -1
- {comfyui_workflow_templates-0.1.96.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/METADATA +1 -1
- {comfyui_workflow_templates-0.1.96.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/RECORD +29 -16
- {comfyui_workflow_templates-0.1.96.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/WHEEL +0 -0
- {comfyui_workflow_templates-0.1.96.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/licenses/LICENSE +0 -0
- {comfyui_workflow_templates-0.1.96.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/top_level.txt +0 -0
|
@@ -3,8 +3,68 @@
|
|
|
3
3
|
"moduleName": "default",
|
|
4
4
|
"type": "image",
|
|
5
5
|
"isEssential": true,
|
|
6
|
-
"title": "
|
|
6
|
+
"title": "Getting Started",
|
|
7
7
|
"templates": [
|
|
8
|
+
{
|
|
9
|
+
"name": "01_qwen_t2i_subgraphed",
|
|
10
|
+
"title": "Qwen-Image Text to Image",
|
|
11
|
+
"mediaType": "image",
|
|
12
|
+
"mediaSubtype": "webp",
|
|
13
|
+
"description": "Generate images with exceptional multilingual text rendering and editing capabilities using Qwen-Image's 20B MMDiT model..",
|
|
14
|
+
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
15
|
+
"tags": ["Texte vers image", "Image"],
|
|
16
|
+
"models": ["Qwen-Image"],
|
|
17
|
+
"date": "2025-10-17",
|
|
18
|
+
"size": 29.59
|
|
19
|
+
},
|
|
20
|
+
{
|
|
21
|
+
"name": "02_qwen_Image_edit_subgraphed",
|
|
22
|
+
"title": "Qwen Image Edit 2509",
|
|
23
|
+
"mediaType": "image",
|
|
24
|
+
"mediaSubtype": "webp",
|
|
25
|
+
"description": "Advanced image editing with multi-image support, improved consistency, and ControlNet integration.",
|
|
26
|
+
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
|
|
27
|
+
"tags": ["Image vers image", "Édition d'image", "ControlNet"],
|
|
28
|
+
"models": ["Qwen-Image"],
|
|
29
|
+
"date": "2025-10-17",
|
|
30
|
+
"size": 29.59
|
|
31
|
+
},
|
|
32
|
+
{
|
|
33
|
+
"name": "03_video_wan2_2_14B_i2v_subgraphed",
|
|
34
|
+
"title": "Wan 2.2 14B Image to Video",
|
|
35
|
+
"description": "Transform static images into dynamic videos with precise motion control and style preservation using Wan 2.2.",
|
|
36
|
+
"mediaType": "image",
|
|
37
|
+
"mediaSubtype": "webp",
|
|
38
|
+
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
|
|
39
|
+
"tags": ["Image vers vidéo", "Vidéo"],
|
|
40
|
+
"models": ["Wan2.2", "Wan"],
|
|
41
|
+
"date": "2025-10-17",
|
|
42
|
+
"size": 35.42
|
|
43
|
+
},
|
|
44
|
+
{
|
|
45
|
+
"name": "04_hunyuan_3d_2.1_subgraphed",
|
|
46
|
+
"title": "Hunyuan3D 2.1: image to 3D",
|
|
47
|
+
"mediaType": "image",
|
|
48
|
+
"mediaSubtype": "webp",
|
|
49
|
+
"description": "Generate 3D models from single images using Hunyuan3D 2.0.",
|
|
50
|
+
"tags": ["Image vers 3D", "3D"],
|
|
51
|
+
"models": ["Hunyuan3D"],
|
|
52
|
+
"date": "2025-10-17",
|
|
53
|
+
"tutorialUrl": "https://docs.comfy.org/tutorials/3d/hunyuan3D-2",
|
|
54
|
+
"size": 4.59
|
|
55
|
+
},
|
|
56
|
+
{
|
|
57
|
+
"name": "05_audio_ace_step_1_t2a_song_subgraphed",
|
|
58
|
+
"title": "ACE Step v1 Text to Song",
|
|
59
|
+
"mediaType": "image",
|
|
60
|
+
"mediaSubtype": "webp",
|
|
61
|
+
"description": "Generate songs with vocals from text prompts using ACE-Step v1, supporting multilingual and style customization.",
|
|
62
|
+
"tags": ["Texte vers audio", "Audio"],
|
|
63
|
+
"models": ["ACE-Step"],
|
|
64
|
+
"date": "2025-10-17",
|
|
65
|
+
"tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
|
|
66
|
+
"size": 7.17
|
|
67
|
+
},
|
|
8
68
|
{
|
|
9
69
|
"name": "default",
|
|
10
70
|
"title": "Génération d'images",
|
|
@@ -12,7 +72,7 @@
|
|
|
12
72
|
"mediaSubtype": "webp",
|
|
13
73
|
"description": "Générer des images à partir de prompts textuels.",
|
|
14
74
|
"tutorialUrl": "https://docs.comfy.org/tutorials/basic/text-to-image",
|
|
15
|
-
"tags": ["Texte vers
|
|
75
|
+
"tags": ["Texte vers image", "Image"],
|
|
16
76
|
"models": ["SD1.5", "Stability"],
|
|
17
77
|
"date": "2025-03-01",
|
|
18
78
|
"size": 1.99,
|
|
@@ -25,7 +85,7 @@
|
|
|
25
85
|
"mediaSubtype": "webp",
|
|
26
86
|
"description": "Transformer des images existantes en utilisant des prompts textuels.",
|
|
27
87
|
"tutorialUrl": "https://docs.comfy.org/tutorials/basic/image-to-image",
|
|
28
|
-
"tags": ["Image vers
|
|
88
|
+
"tags": ["Image vers image", "Image"],
|
|
29
89
|
"models": ["SD1.5", "Stability"],
|
|
30
90
|
"date": "2025-03-01",
|
|
31
91
|
"size": 1.99,
|
|
@@ -39,7 +99,7 @@
|
|
|
39
99
|
"mediaSubtype": "webp",
|
|
40
100
|
"description": "Générer des images avec des modèles LoRA pour des styles ou sujets spécialisés.",
|
|
41
101
|
"tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
|
|
42
|
-
"tags": ["Texte vers
|
|
102
|
+
"tags": ["Texte vers image", "Image"],
|
|
43
103
|
"models": ["SD1.5", "Stability"],
|
|
44
104
|
"date": "2025-03-01",
|
|
45
105
|
"size": 2.27,
|
|
@@ -52,7 +112,7 @@
|
|
|
52
112
|
"mediaSubtype": "webp",
|
|
53
113
|
"description": "Générer des images en combinant plusieurs modèles LoRA.",
|
|
54
114
|
"tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
|
|
55
|
-
"tags": ["Texte vers
|
|
115
|
+
"tags": ["Texte vers image", "Image"],
|
|
56
116
|
"models": ["SD1.5", "Stability"],
|
|
57
117
|
"date": "2025-03-01",
|
|
58
118
|
"size": 2.27,
|
|
@@ -88,12 +148,12 @@
|
|
|
88
148
|
},
|
|
89
149
|
{
|
|
90
150
|
"name": "embedding_example",
|
|
91
|
-
"title": "
|
|
151
|
+
"title": "Intégration",
|
|
92
152
|
"mediaType": "image",
|
|
93
153
|
"mediaSubtype": "webp",
|
|
94
154
|
"description": "Générer des images en utilisant l'inversion textuelle pour des styles cohérents.",
|
|
95
155
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/",
|
|
96
|
-
"tags": ["
|
|
156
|
+
"tags": ["Texte vers image", "Image"],
|
|
97
157
|
"models": ["SD1.5", "Stability"],
|
|
98
158
|
"date": "2025-03-01",
|
|
99
159
|
"size": 4.86,
|
|
@@ -101,12 +161,12 @@
|
|
|
101
161
|
},
|
|
102
162
|
{
|
|
103
163
|
"name": "gligen_textbox_example",
|
|
104
|
-
"title": "Gligen
|
|
164
|
+
"title": "Boîte de Texte Gligen",
|
|
105
165
|
"mediaType": "image",
|
|
106
166
|
"mediaSubtype": "webp",
|
|
107
167
|
"description": "Générer des images avec un placement précis d'objets en utilisant des boîtes de texte.",
|
|
108
168
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/gligen/",
|
|
109
|
-
"tags": ["
|
|
169
|
+
"tags": ["Image"],
|
|
110
170
|
"models": ["SD1.5", "Stability"],
|
|
111
171
|
"date": "2025-03-01",
|
|
112
172
|
"size": 2.77,
|
|
@@ -118,7 +178,7 @@
|
|
|
118
178
|
"mediaType": "image",
|
|
119
179
|
"mediaSubtype": "webp",
|
|
120
180
|
"description": "Générer des images en contrôlant la composition avec des zones définies.",
|
|
121
|
-
"tags": ["
|
|
181
|
+
"tags": ["Texte vers image", "Image"],
|
|
122
182
|
"models": ["SD1.5", "Stability"],
|
|
123
183
|
"date": "2025-03-01",
|
|
124
184
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/",
|
|
@@ -127,11 +187,11 @@
|
|
|
127
187
|
},
|
|
128
188
|
{
|
|
129
189
|
"name": "area_composition_square_area_for_subject",
|
|
130
|
-
"title": "
|
|
190
|
+
"title": "Composition Zone Carrée pour Sujet",
|
|
131
191
|
"mediaType": "image",
|
|
132
192
|
"mediaSubtype": "webp",
|
|
133
193
|
"description": "Générer des images avec un placement cohérent du sujet en utilisant la composition de zone.",
|
|
134
|
-
"tags": ["
|
|
194
|
+
"tags": ["Texte vers image", "Image"],
|
|
135
195
|
"models": ["SD1.5", "Stability"],
|
|
136
196
|
"date": "2025-03-01",
|
|
137
197
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/#increasing-consistency-of-images-with-area-composition",
|
|
@@ -145,7 +205,7 @@
|
|
|
145
205
|
"mediaSubtype": "webp",
|
|
146
206
|
"description": "Agrandir les images en améliorant la qualité dans l'espace latent.",
|
|
147
207
|
"thumbnailVariant": "compareSlider",
|
|
148
|
-
"tags": ["
|
|
208
|
+
"tags": ["Amélioration", "Image"],
|
|
149
209
|
"models": ["SD1.5", "Stability"],
|
|
150
210
|
"date": "2025-03-01",
|
|
151
211
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/",
|
|
@@ -159,7 +219,7 @@
|
|
|
159
219
|
"mediaSubtype": "webp",
|
|
160
220
|
"description": "Agrandir les images en utilisant les modèles ESRGAN pour améliorer la qualité.",
|
|
161
221
|
"thumbnailVariant": "compareSlider",
|
|
162
|
-
"tags": ["
|
|
222
|
+
"tags": ["Amélioration", "Image"],
|
|
163
223
|
"models": ["SD1.5", "Stability"],
|
|
164
224
|
"date": "2025-03-01",
|
|
165
225
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/upscale_models/",
|
|
@@ -168,12 +228,12 @@
|
|
|
168
228
|
},
|
|
169
229
|
{
|
|
170
230
|
"name": "hiresfix_esrgan_workflow",
|
|
171
|
-
"title": "HiresFix ESRGAN
|
|
231
|
+
"title": "Workflow HiresFix ESRGAN",
|
|
172
232
|
"mediaType": "image",
|
|
173
233
|
"mediaSubtype": "webp",
|
|
174
234
|
"description": "Agrandir les images en utilisant les modèles ESRGAN pendant les étapes de génération intermédiaires.",
|
|
175
235
|
"thumbnailVariant": "compareSlider",
|
|
176
|
-
"tags": ["
|
|
236
|
+
"tags": ["Amélioration", "Image"],
|
|
177
237
|
"models": ["SD1.5", "Stability"],
|
|
178
238
|
"date": "2025-03-01",
|
|
179
239
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#non-latent-upscaling",
|
|
@@ -182,12 +242,12 @@
|
|
|
182
242
|
},
|
|
183
243
|
{
|
|
184
244
|
"name": "latent_upscale_different_prompt_model",
|
|
185
|
-
"title": "
|
|
245
|
+
"title": "Modèle Upscale Latent avec Prompt Différent",
|
|
186
246
|
"mediaType": "image",
|
|
187
247
|
"mediaSubtype": "webp",
|
|
188
248
|
"description": "Agrandir les images tout en changeant les prompts à travers les passes de génération.",
|
|
189
249
|
"thumbnailVariant": "zoomHover",
|
|
190
|
-
"tags": ["
|
|
250
|
+
"tags": ["Amélioration", "Image"],
|
|
191
251
|
"models": ["SD1.5", "Stability"],
|
|
192
252
|
"date": "2025-03-01",
|
|
193
253
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#more-examples",
|
|
@@ -210,7 +270,7 @@
|
|
|
210
270
|
},
|
|
211
271
|
{
|
|
212
272
|
"name": "2_pass_pose_worship",
|
|
213
|
-
"title": "Pose ControlNet 2
|
|
273
|
+
"title": "Pose ControlNet 2 Passes",
|
|
214
274
|
"mediaType": "image",
|
|
215
275
|
"mediaSubtype": "webp",
|
|
216
276
|
"description": "Générer des images guidées par des références de pose en utilisant ControlNet.",
|
|
@@ -224,12 +284,12 @@
|
|
|
224
284
|
},
|
|
225
285
|
{
|
|
226
286
|
"name": "depth_controlnet",
|
|
227
|
-
"title": "
|
|
287
|
+
"title": "Profondeur ControlNet",
|
|
228
288
|
"mediaType": "image",
|
|
229
289
|
"mediaSubtype": "webp",
|
|
230
290
|
"description": "Générer des images guidées par les informations de profondeur en utilisant ControlNet.",
|
|
231
291
|
"thumbnailVariant": "hoverDissolve",
|
|
232
|
-
"tags": ["ControlNet", "Image"],
|
|
292
|
+
"tags": ["ControlNet", "Image", "Texte vers image"],
|
|
233
293
|
"models": ["SD1.5", "Stability"],
|
|
234
294
|
"date": "2025-03-01",
|
|
235
295
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
|
|
@@ -238,12 +298,12 @@
|
|
|
238
298
|
},
|
|
239
299
|
{
|
|
240
300
|
"name": "depth_t2i_adapter",
|
|
241
|
-
"title": "
|
|
301
|
+
"title": "Adaptateur T2I Profondeur",
|
|
242
302
|
"mediaType": "image",
|
|
243
303
|
"mediaSubtype": "webp",
|
|
244
304
|
"description": "Générer des images guidées par les informations de profondeur en utilisant l'adaptateur T2I.",
|
|
245
305
|
"thumbnailVariant": "hoverDissolve",
|
|
246
|
-
"tags": ["
|
|
306
|
+
"tags": ["ControlNet", "Image", "Texte vers image"],
|
|
247
307
|
"models": ["SD1.5", "Stability"],
|
|
248
308
|
"date": "2025-03-01",
|
|
249
309
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
|
|
@@ -252,12 +312,12 @@
|
|
|
252
312
|
},
|
|
253
313
|
{
|
|
254
314
|
"name": "mixing_controlnets",
|
|
255
|
-
"title": "
|
|
315
|
+
"title": "Mélange ControlNets",
|
|
256
316
|
"mediaType": "image",
|
|
257
317
|
"mediaSubtype": "webp",
|
|
258
318
|
"description": "Générer des images en combinant plusieurs modèles ControlNet.",
|
|
259
319
|
"thumbnailVariant": "hoverDissolve",
|
|
260
|
-
"tags": ["ControlNet", "Image"],
|
|
320
|
+
"tags": ["ControlNet", "Image", "Texte vers image"],
|
|
261
321
|
"models": ["SD1.5", "Stability"],
|
|
262
322
|
"date": "2025-03-01",
|
|
263
323
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#mixing-controlnets",
|
|
@@ -280,7 +340,7 @@
|
|
|
280
340
|
"mediaSubtype": "webp",
|
|
281
341
|
"description": "Générer des images avec des capacités exceptionnelles de rendu et d'édition de texte multilingue en utilisant le modèle MMDiT 20B de Qwen-Image.",
|
|
282
342
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
283
|
-
"tags": ["Texte vers
|
|
343
|
+
"tags": ["Texte vers image", "Image"],
|
|
284
344
|
"models": ["Qwen-Image"],
|
|
285
345
|
"date": "2025-08-05",
|
|
286
346
|
"size": 29.59
|
|
@@ -291,7 +351,7 @@
|
|
|
291
351
|
"mediaType": "image",
|
|
292
352
|
"mediaSubtype": "webp",
|
|
293
353
|
"description": "Générer des images avec Qwen-Image InstantX ControlNet, prenant en charge canny, contours doux, profondeur, pose",
|
|
294
|
-
"tags": ["Image vers
|
|
354
|
+
"tags": ["Image vers image", "Image", "ControlNet"],
|
|
295
355
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
296
356
|
"models": ["Qwen-Image"],
|
|
297
357
|
"date": "2025-08-23",
|
|
@@ -299,12 +359,12 @@
|
|
|
299
359
|
},
|
|
300
360
|
{
|
|
301
361
|
"name": "image_qwen_image_instantx_inpainting_controlnet",
|
|
302
|
-
"title": "Qwen-Image InstantX Inpainting
|
|
362
|
+
"title": "Qwen-Image InstantX ControlNet Inpainting",
|
|
303
363
|
"mediaType": "image",
|
|
304
364
|
"mediaSubtype": "webp",
|
|
305
365
|
"thumbnailVariant": "compareSlider",
|
|
306
|
-
"description": "
|
|
307
|
-
"tags": ["Image
|
|
366
|
+
"description": "Inpainting professionnel et édition d'images avec Qwen-Image InstantX ControlNet. Prend en charge le remplacement d'objets, la modification de texte, les changements d'arrière-plan et l'outpainting.",
|
|
367
|
+
"tags": ["Image vers image", "Image", "ControlNet", "Inpainting"],
|
|
308
368
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
309
369
|
"models": ["Qwen-Image"],
|
|
310
370
|
"date": "2025-09-12",
|
|
@@ -312,11 +372,11 @@
|
|
|
312
372
|
},
|
|
313
373
|
{
|
|
314
374
|
"name": "image_qwen_image_union_control_lora",
|
|
315
|
-
"title": "Qwen-Image
|
|
375
|
+
"title": "Qwen-Image Contrôle Unifié",
|
|
316
376
|
"mediaType": "image",
|
|
317
377
|
"mediaSubtype": "webp",
|
|
318
378
|
"description": "Générer des images avec un contrôle structurel précis en utilisant le LoRA ControlNet unifié de Qwen-Image. Prend en charge plusieurs types de contrôle incluant canny, depth, lineart, softedge, normal et openpose pour diverses applications créatives.",
|
|
319
|
-
"tags": ["Texte vers
|
|
379
|
+
"tags": ["Texte vers image", "Image", "ControlNet"],
|
|
320
380
|
"models": ["Qwen-Image"],
|
|
321
381
|
"date": "2025-08-23",
|
|
322
382
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
@@ -328,7 +388,7 @@
|
|
|
328
388
|
"mediaType": "image",
|
|
329
389
|
"mediaSubtype": "webp",
|
|
330
390
|
"description": "Contrôler la génération d'images en utilisant les modèles ControlNet de Qwen-Image. Prend en charge les contrôles canny, depth et inpainting via le patching de modèles.",
|
|
331
|
-
"tags": ["Texte vers
|
|
391
|
+
"tags": ["Texte vers image", "Image", "ControlNet"],
|
|
332
392
|
"models": ["Qwen-Image"],
|
|
333
393
|
"date": "2025-08-24",
|
|
334
394
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
|
|
@@ -337,13 +397,13 @@
|
|
|
337
397
|
},
|
|
338
398
|
{
|
|
339
399
|
"name": "image_qwen_image_edit_2509",
|
|
340
|
-
"title": "Qwen Image
|
|
400
|
+
"title": "Qwen Édition d'Image 2509",
|
|
341
401
|
"mediaType": "image",
|
|
342
402
|
"mediaSubtype": "webp",
|
|
343
403
|
"thumbnailVariant": "compareSlider",
|
|
344
|
-
"description": "
|
|
404
|
+
"description": "Édition d'images avancée avec support multi-images, cohérence améliorée et intégration ControlNet.",
|
|
345
405
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
|
|
346
|
-
"tags": ["Image
|
|
406
|
+
"tags": ["Image vers image", "Édition d'image", "ControlNet"],
|
|
347
407
|
"models": ["Qwen-Image"],
|
|
348
408
|
"date": "2025-09-25",
|
|
349
409
|
"size": 29.59
|
|
@@ -356,7 +416,7 @@
|
|
|
356
416
|
"thumbnailVariant": "compareSlider",
|
|
357
417
|
"description": "Éditer des images avec une édition de texte bilingue précise et des capacités d'édition sémantique/apparence duales en utilisant le modèle MMDiT 20B de Qwen-Image-Edit.",
|
|
358
418
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
|
|
359
|
-
"tags": ["Image vers
|
|
419
|
+
"tags": ["Image vers image", "Édition d'image"],
|
|
360
420
|
"models": ["Qwen-Image"],
|
|
361
421
|
"date": "2025-08-18",
|
|
362
422
|
"size": 29.59
|
|
@@ -369,7 +429,7 @@
|
|
|
369
429
|
"thumbnailVariant": "hoverDissolve",
|
|
370
430
|
"description": "Éditer une image en utilisant Flux Kontext avec une visibilité complète des nœuds, parfait pour apprendre le flux de travail.",
|
|
371
431
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev",
|
|
372
|
-
"tags": ["Édition d'
|
|
432
|
+
"tags": ["Édition d'image", "Image vers image"],
|
|
373
433
|
"models": ["Flux"],
|
|
374
434
|
"date": "2025-06-26",
|
|
375
435
|
"size": 16.43,
|
|
@@ -377,11 +437,11 @@
|
|
|
377
437
|
},
|
|
378
438
|
{
|
|
379
439
|
"name": "image_chroma1_radiance_text_to_image",
|
|
380
|
-
"title": "Chroma1 Radiance
|
|
440
|
+
"title": "Chroma1 Radiance Texte vers Image",
|
|
381
441
|
"mediaType": "image",
|
|
382
442
|
"mediaSubtype": "webp",
|
|
383
|
-
"description": "Chroma1-Radiance
|
|
384
|
-
"tags": ["
|
|
443
|
+
"description": "Chroma1-Radiance travaille directement avec les pixels d'image au lieu des latents compressés, offrant des images de meilleure qualité avec moins d'artefacts et de distorsion.",
|
|
444
|
+
"tags": ["Texte vers image", "Image"],
|
|
385
445
|
"models": ["Chroma"],
|
|
386
446
|
"date": "2025-09-18",
|
|
387
447
|
"size": 22.0,
|
|
@@ -389,11 +449,11 @@
|
|
|
389
449
|
},
|
|
390
450
|
{
|
|
391
451
|
"name": "image_netayume_lumina_t2i",
|
|
392
|
-
"title": "NetaYume Lumina
|
|
452
|
+
"title": "NetaYume Lumina Texte vers Image",
|
|
393
453
|
"mediaType": "image",
|
|
394
454
|
"mediaSubtype": "webp",
|
|
395
|
-
"description": "
|
|
396
|
-
"tags": ["
|
|
455
|
+
"description": "Génération d'images de style anime de haute qualité avec compréhension améliorée des personnages et textures détaillées. Affinée à partir de Neta Lumina sur l'ensemble de données Danbooru.",
|
|
456
|
+
"tags": ["Texte vers image", "Image", "Anime"],
|
|
397
457
|
"models": ["NetaYume Lumina"],
|
|
398
458
|
"date": "2025-10-10",
|
|
399
459
|
"size": 9.89
|
|
@@ -404,7 +464,7 @@
|
|
|
404
464
|
"mediaType": "image",
|
|
405
465
|
"mediaSubtype": "webp",
|
|
406
466
|
"description": "Chroma est modifié à partir de Flux et présente quelques changements dans l'architecture.",
|
|
407
|
-
"tags": ["Texte vers
|
|
467
|
+
"tags": ["Texte vers image", "Image"],
|
|
408
468
|
"models": ["Chroma", "Flux"],
|
|
409
469
|
"date": "2025-06-04",
|
|
410
470
|
"size": 21.69,
|
|
@@ -430,7 +490,7 @@
|
|
|
430
490
|
"mediaSubtype": "webp",
|
|
431
491
|
"description": "Générer des images en utilisant la version quantifiée Flux Dev fp8. Convient aux appareils avec une VRAM limitée, ne nécessite qu'un seul fichier de modèle, mais la qualité de l'image est légèrement inférieure à la version complète.",
|
|
432
492
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
|
|
433
|
-
"tags": ["Texte vers
|
|
493
|
+
"tags": ["Texte vers image", "Image"],
|
|
434
494
|
"models": ["Flux"],
|
|
435
495
|
"date": "2025-03-01",
|
|
436
496
|
"size": 16.06,
|
|
@@ -443,7 +503,7 @@
|
|
|
443
503
|
"thumbnailVariant": "hoverDissolve",
|
|
444
504
|
"mediaType": "image",
|
|
445
505
|
"mediaSubtype": "webp",
|
|
446
|
-
"tags": ["Image
|
|
506
|
+
"tags": ["Image vers image", "Image"],
|
|
447
507
|
"models": ["Flux"],
|
|
448
508
|
"date": "2025-09-02",
|
|
449
509
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-uso",
|
|
@@ -457,7 +517,7 @@
|
|
|
457
517
|
"mediaSubtype": "webp",
|
|
458
518
|
"description": "Générer rapidement des images avec la version quantifiée Flux Schnell fp8. Idéal pour le matériel d'entrée de gamme, ne nécessite que 4 étapes pour générer des images.",
|
|
459
519
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
|
|
460
|
-
"tags": ["Texte vers
|
|
520
|
+
"tags": ["Texte vers image", "Image"],
|
|
461
521
|
"models": ["Flux"],
|
|
462
522
|
"date": "2025-03-01",
|
|
463
523
|
"size": 16.05,
|
|
@@ -470,7 +530,7 @@
|
|
|
470
530
|
"mediaSubtype": "webp",
|
|
471
531
|
"description": "Un modèle FLUX affiné poussant le photoréalisme à son maximum",
|
|
472
532
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux1-krea-dev",
|
|
473
|
-
"tags": ["Texte vers
|
|
533
|
+
"tags": ["Texte vers image", "Image"],
|
|
474
534
|
"models": ["Flux"],
|
|
475
535
|
"date": "2025-07-31",
|
|
476
536
|
"size": 20.74,
|
|
@@ -483,7 +543,7 @@
|
|
|
483
543
|
"mediaSubtype": "webp",
|
|
484
544
|
"description": "Générer des images de haute qualité avec la version complète de Flux Dev. Nécessite plus de VRAM et plusieurs fichiers de modèles, mais offre la meilleure capacité de suivi des prompts et la qualité d'image.",
|
|
485
545
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
|
|
486
|
-
"tags": ["Texte vers
|
|
546
|
+
"tags": ["Texte vers image", "Image"],
|
|
487
547
|
"models": ["Flux"],
|
|
488
548
|
"date": "2025-03-01",
|
|
489
549
|
"size": 31.83,
|
|
@@ -496,7 +556,7 @@
|
|
|
496
556
|
"mediaSubtype": "webp",
|
|
497
557
|
"description": "Générer des images rapidement avec la version complète de Flux Schnell. Utilise la licence Apache2.0, ne nécessite que 4 étapes pour générer des images tout en maintenant une bonne qualité d'image.",
|
|
498
558
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
|
|
499
|
-
"tags": ["Texte vers
|
|
559
|
+
"tags": ["Texte vers image", "Image"],
|
|
500
560
|
"models": ["Flux"],
|
|
501
561
|
"date": "2025-03-01",
|
|
502
562
|
"size": 31.81
|
|
@@ -509,7 +569,7 @@
|
|
|
509
569
|
"description": "Combler les parties manquantes des images en utilisant l'inpainting Flux.",
|
|
510
570
|
"thumbnailVariant": "compareSlider",
|
|
511
571
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
|
|
512
|
-
"tags": ["Image vers
|
|
572
|
+
"tags": ["Image vers image", "Inpainting", "Image"],
|
|
513
573
|
"models": ["Flux"],
|
|
514
574
|
"date": "2025-03-01",
|
|
515
575
|
"size": 9.66
|
|
@@ -522,7 +582,7 @@
|
|
|
522
582
|
"description": "Étendre les images au-delà des limites en utilisant l'outpainting Flux.",
|
|
523
583
|
"thumbnailVariant": "compareSlider",
|
|
524
584
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
|
|
525
|
-
"tags": ["Outpainting", "Image", "Image vers
|
|
585
|
+
"tags": ["Outpainting", "Image", "Image vers image"],
|
|
526
586
|
"models": ["Flux"],
|
|
527
587
|
"date": "2025-03-01",
|
|
528
588
|
"size": 9.66
|
|
@@ -535,7 +595,7 @@
|
|
|
535
595
|
"description": "Générer des images guidées par la détection de contours en utilisant Flux Canny.",
|
|
536
596
|
"thumbnailVariant": "hoverDissolve",
|
|
537
597
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
|
|
538
|
-
"tags": ["Image vers
|
|
598
|
+
"tags": ["Image vers image", "ControlNet", "Image"],
|
|
539
599
|
"models": ["Flux"],
|
|
540
600
|
"date": "2025-03-01",
|
|
541
601
|
"size": 31.83
|
|
@@ -548,7 +608,7 @@
|
|
|
548
608
|
"description": "Générer des images guidées par les informations de profondeur en utilisant Flux LoRA.",
|
|
549
609
|
"thumbnailVariant": "hoverDissolve",
|
|
550
610
|
"tutorialUrl": "ttps://docs.comfy.org/tutorials/flux/flux-1-controlnet",
|
|
551
|
-
"tags": ["Image vers
|
|
611
|
+
"tags": ["Image vers image", "ControlNet", "Image"],
|
|
552
612
|
"models": ["Flux"],
|
|
553
613
|
"date": "2025-03-01",
|
|
554
614
|
"size": 32.98
|
|
@@ -560,7 +620,7 @@
|
|
|
560
620
|
"mediaSubtype": "webp",
|
|
561
621
|
"description": "Générer des images en transférant le style à partir d'images de référence en utilisant Flux Redux.",
|
|
562
622
|
"tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
|
|
563
|
-
"tags": ["Image vers
|
|
623
|
+
"tags": ["Image vers image", "ControlNet", "Image"],
|
|
564
624
|
"models": ["Flux"],
|
|
565
625
|
"date": "2025-03-01",
|
|
566
626
|
"size": 32.74
|
|
@@ -572,7 +632,7 @@
|
|
|
572
632
|
"mediaSubtype": "webp",
|
|
573
633
|
"description": "Générer des images de haute qualité à partir de prompts textuels en utilisant le modèle multimodal unifié 7B d'OmniGen2 avec une architecture à double chemin.",
|
|
574
634
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
|
|
575
|
-
"tags": ["Texte vers
|
|
635
|
+
"tags": ["Texte vers image", "Image"],
|
|
576
636
|
"models": ["OmniGen"],
|
|
577
637
|
"date": "2025-06-30",
|
|
578
638
|
"size": 14.7
|
|
@@ -585,7 +645,7 @@
|
|
|
585
645
|
"thumbnailVariant": "hoverDissolve",
|
|
586
646
|
"description": "Éditer des images avec des instructions en langage naturel en utilisant les capacités avancées d'édition d'images d'OmniGen2 et le support de rendu de texte.",
|
|
587
647
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
|
|
588
|
-
"tags": ["Édition d'
|
|
648
|
+
"tags": ["Édition d'image", "Image"],
|
|
589
649
|
"models": ["OmniGen"],
|
|
590
650
|
"date": "2025-06-30",
|
|
591
651
|
"size": 14.7
|
|
@@ -597,7 +657,7 @@
|
|
|
597
657
|
"mediaSubtype": "webp",
|
|
598
658
|
"description": "Générer des images avec HiDream I1 Dev - Version équilibrée avec 28 étapes d'inférence, adaptée au matériel de gamme moyenne.",
|
|
599
659
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
|
|
600
|
-
"tags": ["Texte vers
|
|
660
|
+
"tags": ["Texte vers image", "Image"],
|
|
601
661
|
"models": ["HiDream"],
|
|
602
662
|
"date": "2025-04-17",
|
|
603
663
|
"size": 31.03
|
|
@@ -609,7 +669,7 @@
|
|
|
609
669
|
"mediaSubtype": "webp",
|
|
610
670
|
"description": "Générer des images rapidement avec HiDream I1 Fast - Version légère avec 16 étapes d'inférence, idéale pour des aperçus rapides sur du matériel d'entrée de gamme.",
|
|
611
671
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
|
|
612
|
-
"tags": ["Texte vers
|
|
672
|
+
"tags": ["Texte vers image", "Image"],
|
|
613
673
|
"models": ["HiDream"],
|
|
614
674
|
"date": "2025-04-17",
|
|
615
675
|
"size": 22.57
|
|
@@ -621,7 +681,7 @@
|
|
|
621
681
|
"mediaSubtype": "webp",
|
|
622
682
|
"description": "Générer des images avec HiDream I1 Full - Version complète avec 50 étapes d'inférence pour une sortie de la plus haute qualité.",
|
|
623
683
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
|
|
624
|
-
"tags": ["Texte vers
|
|
684
|
+
"tags": ["Texte vers image", "Image"],
|
|
625
685
|
"models": ["HiDream"],
|
|
626
686
|
"date": "2025-04-17",
|
|
627
687
|
"size": 22.57
|
|
@@ -634,7 +694,7 @@
|
|
|
634
694
|
"thumbnailVariant": "compareSlider",
|
|
635
695
|
"description": "Éditer des images avec HiDream E1.1 – il est meilleur en qualité d'image et en précision d'édition que HiDream-E1-Full.",
|
|
636
696
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
|
|
637
|
-
"tags": ["Édition d'
|
|
697
|
+
"tags": ["Édition d'image", "Image"],
|
|
638
698
|
"models": ["HiDream"],
|
|
639
699
|
"date": "2025-07-21",
|
|
640
700
|
"size": 46.96
|
|
@@ -647,7 +707,7 @@
|
|
|
647
707
|
"thumbnailVariant": "compareSlider",
|
|
648
708
|
"description": "Éditer des images avec HiDream E1 - Modèle professionnel d'édition d'images en langage naturel.",
|
|
649
709
|
"tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
|
|
650
|
-
"tags": ["Édition d'
|
|
710
|
+
"tags": ["Édition d'image", "Image"],
|
|
651
711
|
"models": ["HiDream"],
|
|
652
712
|
"date": "2025-05-01",
|
|
653
713
|
"size": 31.86
|
|
@@ -659,7 +719,7 @@
|
|
|
659
719
|
"mediaSubtype": "webp",
|
|
660
720
|
"description": "Générer des images en utilisant SD 3.5.",
|
|
661
721
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35",
|
|
662
|
-
"tags": ["Texte vers
|
|
722
|
+
"tags": ["Texte vers image", "Image"],
|
|
663
723
|
"models": ["SD3.5"],
|
|
664
724
|
"date": "2025-03-01",
|
|
665
725
|
"size": 13.91
|
|
@@ -672,33 +732,33 @@
|
|
|
672
732
|
"description": "Générer des images guidées par la détection de contours en utilisant SD 3.5 Canny ControlNet.",
|
|
673
733
|
"thumbnailVariant": "hoverDissolve",
|
|
674
734
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
|
|
675
|
-
"tags": ["Image vers
|
|
735
|
+
"tags": ["Image vers image", "Image", "ControlNet"],
|
|
676
736
|
"models": ["SD3.5"],
|
|
677
737
|
"date": "2025-03-01",
|
|
678
738
|
"size": 21.97
|
|
679
739
|
},
|
|
680
740
|
{
|
|
681
741
|
"name": "sd3.5_large_depth",
|
|
682
|
-
"title": "SD3.5 Large
|
|
742
|
+
"title": "SD3.5 Large Profondeur",
|
|
683
743
|
"mediaType": "image",
|
|
684
744
|
"mediaSubtype": "webp",
|
|
685
745
|
"description": "Générer des images guidées par les informations de profondeur en utilisant SD 3.5.",
|
|
686
746
|
"thumbnailVariant": "hoverDissolve",
|
|
687
747
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
|
|
688
|
-
"tags": ["Image vers
|
|
748
|
+
"tags": ["Image vers image", "Image", "ControlNet"],
|
|
689
749
|
"models": ["SD3.5"],
|
|
690
750
|
"date": "2025-03-01",
|
|
691
751
|
"size": 21.97
|
|
692
752
|
},
|
|
693
753
|
{
|
|
694
754
|
"name": "sd3.5_large_blur",
|
|
695
|
-
"title": "SD3.5 Large
|
|
755
|
+
"title": "SD3.5 Large Flou",
|
|
696
756
|
"mediaType": "image",
|
|
697
757
|
"mediaSubtype": "webp",
|
|
698
758
|
"description": "Générer des images guidées par des images de référence floues en utilisant SD 3.5.",
|
|
699
759
|
"thumbnailVariant": "hoverDissolve",
|
|
700
760
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
|
|
701
|
-
"tags": ["Image vers
|
|
761
|
+
"tags": ["Image vers image", "Image"],
|
|
702
762
|
"models": ["SD3.5"],
|
|
703
763
|
"date": "2025-03-01",
|
|
704
764
|
"size": 21.97
|
|
@@ -710,31 +770,31 @@
|
|
|
710
770
|
"mediaSubtype": "webp",
|
|
711
771
|
"description": "Générer des images de haute qualité en utilisant SDXL.",
|
|
712
772
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
|
|
713
|
-
"tags": ["Texte vers
|
|
773
|
+
"tags": ["Texte vers image", "Image"],
|
|
714
774
|
"models": ["SDXL", "Stability"],
|
|
715
775
|
"date": "2025-03-01",
|
|
716
776
|
"size": 12.12
|
|
717
777
|
},
|
|
718
778
|
{
|
|
719
779
|
"name": "sdxl_refiner_prompt_example",
|
|
720
|
-
"title": "SDXL
|
|
780
|
+
"title": "SDXL Affineur de Prompt",
|
|
721
781
|
"mediaType": "image",
|
|
722
782
|
"mediaSubtype": "webp",
|
|
723
783
|
"description": "Améliorer les images SDXL en utilisant des modèles de raffinement.",
|
|
724
784
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
|
|
725
|
-
"tags": ["Texte vers
|
|
785
|
+
"tags": ["Texte vers image", "Image"],
|
|
726
786
|
"models": ["SDXL", "Stability"],
|
|
727
787
|
"date": "2025-03-01",
|
|
728
788
|
"size": 12.12
|
|
729
789
|
},
|
|
730
790
|
{
|
|
731
791
|
"name": "sdxl_revision_text_prompts",
|
|
732
|
-
"title": "SDXL
|
|
792
|
+
"title": "SDXL Révision Prompts Texte",
|
|
733
793
|
"mediaType": "image",
|
|
734
794
|
"mediaSubtype": "webp",
|
|
735
795
|
"description": "Générer des images en transférant des concepts à partir d'images de référence en utilisant SDXL Revision.",
|
|
736
796
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
|
|
737
|
-
"tags": ["Texte vers
|
|
797
|
+
"tags": ["Texte vers image", "Image"],
|
|
738
798
|
"models": ["SDXL", "Stability"],
|
|
739
799
|
"date": "2025-03-01",
|
|
740
800
|
"size": 9.9
|
|
@@ -746,19 +806,19 @@
|
|
|
746
806
|
"mediaSubtype": "webp",
|
|
747
807
|
"description": "Générer des images en une seule étape en utilisant SDXL Turbo.",
|
|
748
808
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdturbo/",
|
|
749
|
-
"tags": ["Texte vers
|
|
809
|
+
"tags": ["Texte vers image", "Image"],
|
|
750
810
|
"models": ["SDXL", "Stability"],
|
|
751
811
|
"date": "2025-03-01",
|
|
752
812
|
"size": 6.46
|
|
753
813
|
},
|
|
754
814
|
{
|
|
755
815
|
"name": "image_lotus_depth_v1_1",
|
|
756
|
-
"title": "Lotus
|
|
816
|
+
"title": "Lotus Profondeur",
|
|
757
817
|
"mediaType": "image",
|
|
758
818
|
"mediaSubtype": "webp",
|
|
759
819
|
"thumbnailVariant": "compareSlider",
|
|
760
820
|
"description": "Exécuter Lotus Depth dans ComfyUI pour une estimation de profondeur monoculaire efficace zero-shot avec une haute rétention de détails.",
|
|
761
|
-
"tags": ["
|
|
821
|
+
"tags": ["Image", "Texte vers image"],
|
|
762
822
|
"models": ["SD1.5"],
|
|
763
823
|
"date": "2025-05-21",
|
|
764
824
|
"size": 1.93
|
|
@@ -770,36 +830,36 @@
|
|
|
770
830
|
"type": "video",
|
|
771
831
|
"category": "GENERATION TYPE",
|
|
772
832
|
"icon": "icon-[lucide--film]",
|
|
773
|
-
"title": "
|
|
833
|
+
"title": "Video",
|
|
774
834
|
"templates": [
|
|
775
835
|
{
|
|
776
836
|
"name": "video_wan2_2_14B_t2v",
|
|
777
|
-
"title": "Wan 2.2 14B
|
|
837
|
+
"title": "Wan 2.2 14B Texte vers Vidéo",
|
|
778
838
|
"description": "Générer des vidéos de haute qualité à partir de prompts textuels avec un contrôle esthétique cinématographique et une génération de mouvement dynamique en utilisant Wan 2.2.",
|
|
779
839
|
"mediaType": "image",
|
|
780
840
|
"mediaSubtype": "webp",
|
|
781
841
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
|
|
782
|
-
"tags": ["Texte vers
|
|
842
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
783
843
|
"models": ["Wan2.2", "Wan"],
|
|
784
844
|
"date": "2025-07-29",
|
|
785
845
|
"size": 35.42
|
|
786
846
|
},
|
|
787
847
|
{
|
|
788
848
|
"name": "video_wan2_2_14B_i2v",
|
|
789
|
-
"title": "Wan 2.2 14B Image
|
|
849
|
+
"title": "Wan 2.2 14B Image vers Vidéo",
|
|
790
850
|
"description": "Transformer des images statiques en vidéos dynamiques avec un contrôle précis du mouvement et une préservation du style en utilisant Wan 2.2.",
|
|
791
851
|
"mediaType": "image",
|
|
792
852
|
"mediaSubtype": "webp",
|
|
793
853
|
"thumbnailVariant": "hoverDissolve",
|
|
794
854
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
|
|
795
|
-
"tags": ["Image vers
|
|
855
|
+
"tags": ["Image vers vidéo", "Vidéo"],
|
|
796
856
|
"models": ["Wan2.2", "Wan"],
|
|
797
857
|
"date": "2025-07-29",
|
|
798
858
|
"size": 35.42
|
|
799
859
|
},
|
|
800
860
|
{
|
|
801
861
|
"name": "video_wan2_2_14B_flf2v",
|
|
802
|
-
"title": "Wan 2.2 14B
|
|
862
|
+
"title": "Wan 2.2 14B Première-Dernière Image vers Vidéo",
|
|
803
863
|
"description": "Générer des transitions vidéo fluides en définissant les images de début et de fin.",
|
|
804
864
|
"mediaType": "image",
|
|
805
865
|
"mediaSubtype": "webp",
|
|
@@ -812,12 +872,12 @@
|
|
|
812
872
|
},
|
|
813
873
|
{
|
|
814
874
|
"name": "video_wan2_2_14B_animate",
|
|
815
|
-
"title": "Wan2.2 Animate
|
|
816
|
-
"description": "
|
|
875
|
+
"title": "Wan2.2 Animate animation et remplacement de personnages",
|
|
876
|
+
"description": "Cadre unifié d'animation et de remplacement de personnages avec réplication précise des mouvements et expressions。",
|
|
817
877
|
"mediaType": "image",
|
|
818
878
|
"mediaSubtype": "webp",
|
|
819
879
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-animate",
|
|
820
|
-
"tags": ["
|
|
880
|
+
"tags": ["Vidéo", "Image vers vidéo"],
|
|
821
881
|
"models": ["Wan2.2", "Wan"],
|
|
822
882
|
"date": "2025-09-22",
|
|
823
883
|
"size": 25.535
|
|
@@ -836,23 +896,23 @@
|
|
|
836
896
|
},
|
|
837
897
|
{
|
|
838
898
|
"name": "video_humo",
|
|
839
|
-
"title": "HuMo
|
|
840
|
-
"description": "
|
|
899
|
+
"title": "HuMo Génération Vidéo",
|
|
900
|
+
"description": "Générez des vidéos basées sur l'audio, l'image et le texte, en préservant la synchronisation labiale des personnages.",
|
|
841
901
|
"mediaType": "image",
|
|
842
902
|
"mediaSubtype": "webp",
|
|
843
|
-
"tags": ["
|
|
903
|
+
"tags": ["Vidéo"],
|
|
844
904
|
"models": ["HuMo"],
|
|
845
905
|
"date": "2025-09-21",
|
|
846
906
|
"size": 25.98
|
|
847
907
|
},
|
|
848
908
|
{
|
|
849
909
|
"name": "video_wan2_2_14B_fun_inpaint",
|
|
850
|
-
"title": "Wan 2.2 14B Fun
|
|
851
|
-
"description": "
|
|
910
|
+
"title": "Wan 2.2 14B Fun Inpainting",
|
|
911
|
+
"description": "Générez des vidéos à partir des images de début et de fin avec Wan 2.2 Fun Inp.",
|
|
852
912
|
"mediaType": "image",
|
|
853
913
|
"mediaSubtype": "webp",
|
|
854
914
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-inp",
|
|
855
|
-
"tags": ["FLF2V", "
|
|
915
|
+
"tags": ["FLF2V", "Vidéo"],
|
|
856
916
|
"models": ["Wan2.2", "Wan"],
|
|
857
917
|
"date": "2025-08-12",
|
|
858
918
|
"size": 35.42
|
|
@@ -864,42 +924,42 @@
|
|
|
864
924
|
"mediaType": "image",
|
|
865
925
|
"mediaSubtype": "webp",
|
|
866
926
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-control",
|
|
867
|
-
"tags": ["Vidéo vers
|
|
927
|
+
"tags": ["Vidéo vers vidéo", "Vidéo"],
|
|
868
928
|
"models": ["Wan2.2", "Wan"],
|
|
869
929
|
"date": "2025-08-12",
|
|
870
930
|
"size": 35.42
|
|
871
931
|
},
|
|
872
932
|
{
|
|
873
933
|
"name": "video_wan2_2_14B_fun_camera",
|
|
874
|
-
"title": "Wan 2.2 14B
|
|
934
|
+
"title": "Wan 2.2 14B Contrôle Caméra Fun",
|
|
875
935
|
"description": "Générer des vidéos avec des contrôles de mouvement de caméra incluant le panoramique, le zoom et la rotation en utilisant Wan 2.2 Fun Camera Control.",
|
|
876
936
|
"mediaType": "image",
|
|
877
937
|
"mediaSubtype": "webp",
|
|
878
938
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-camera",
|
|
879
|
-
"tags": ["Vidéo vers
|
|
939
|
+
"tags": ["Vidéo vers vidéo", "Vidéo"],
|
|
880
940
|
"models": ["Wan2.2", "Wan"],
|
|
881
941
|
"date": "2025-08-17",
|
|
882
942
|
"size": 37.3
|
|
883
943
|
},
|
|
884
944
|
{
|
|
885
945
|
"name": "video_wan2_2_5B_ti2v",
|
|
886
|
-
"title": "Wan 2.2 5B
|
|
946
|
+
"title": "Wan 2.2 5B Génération Vidéo",
|
|
887
947
|
"description": "Générer des vidéos à partir de texte ou d'images en utilisant le modèle hybride Wan 2.2 5B",
|
|
888
948
|
"mediaType": "image",
|
|
889
949
|
"mediaSubtype": "webp",
|
|
890
950
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
|
|
891
|
-
"tags": ["Texte vers
|
|
951
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
892
952
|
"models": ["Wan2.2", "Wan"],
|
|
893
953
|
"date": "2025-07-29",
|
|
894
954
|
"size": 16.9
|
|
895
955
|
},
|
|
896
956
|
{
|
|
897
957
|
"name": "video_wan2_2_5B_fun_inpaint",
|
|
898
|
-
"title": "Wan 2.2 5B Fun
|
|
958
|
+
"title": "Wan 2.2 5B Fun Inpainting",
|
|
899
959
|
"description": "Inpainting vidéo efficace à partir des images de début et de fin. Le modèle 5B offre des itérations rapides pour tester les flux de travail.",
|
|
900
960
|
"mediaType": "image",
|
|
901
961
|
"mediaSubtype": "webp",
|
|
902
|
-
"tags": ["Texte vers
|
|
962
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
903
963
|
"models": ["Wan2.2", "Wan"],
|
|
904
964
|
"date": "2025-07-29",
|
|
905
965
|
"size": 16.9
|
|
@@ -910,7 +970,7 @@
|
|
|
910
970
|
"description": "Contrôle vidéo multi-conditions avec guidance par pose, profondeur et contours. Taille compacte 5B pour un développement expérimental.",
|
|
911
971
|
"mediaType": "image",
|
|
912
972
|
"mediaSubtype": "webp",
|
|
913
|
-
"tags": ["Texte vers
|
|
973
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
914
974
|
"models": ["Wan2.2", "Wan"],
|
|
915
975
|
"date": "2025-07-29",
|
|
916
976
|
"size": 16.9
|
|
@@ -922,7 +982,7 @@
|
|
|
922
982
|
"mediaType": "image",
|
|
923
983
|
"mediaSubtype": "webp",
|
|
924
984
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
|
|
925
|
-
"tags": ["Texte vers
|
|
985
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
926
986
|
"models": ["Wan2.1", "Wan"],
|
|
927
987
|
"date": "2025-05-21",
|
|
928
988
|
"size": 53.79
|
|
@@ -934,7 +994,7 @@
|
|
|
934
994
|
"mediaType": "image",
|
|
935
995
|
"mediaSubtype": "webp",
|
|
936
996
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
|
|
937
|
-
"tags": ["
|
|
997
|
+
"tags": ["Vidéo", "Image vers vidéo"],
|
|
938
998
|
"models": ["Wan2.1", "Wan"],
|
|
939
999
|
"date": "2025-05-21",
|
|
940
1000
|
"size": 53.79
|
|
@@ -947,7 +1007,7 @@
|
|
|
947
1007
|
"mediaSubtype": "webp",
|
|
948
1008
|
"thumbnailVariant": "compareSlider",
|
|
949
1009
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
|
|
950
|
-
"tags": ["Vidéo vers
|
|
1010
|
+
"tags": ["Vidéo vers vidéo", "Vidéo"],
|
|
951
1011
|
"models": ["Wan2.1", "Wan"],
|
|
952
1012
|
"date": "2025-05-21",
|
|
953
1013
|
"size": 53.79
|
|
@@ -992,11 +1052,11 @@
|
|
|
992
1052
|
},
|
|
993
1053
|
{
|
|
994
1054
|
"name": "video_wan2.1_alpha_t2v_14B",
|
|
995
|
-
"title": "Wan2.1 Alpha
|
|
996
|
-
"description": "
|
|
1055
|
+
"title": "Wan2.1 Alpha Texte vers Vidéo",
|
|
1056
|
+
"description": "Générez des vidéos à partir de texte avec support de canal alpha pour des arrière-plans transparents et objets semi-transparents.",
|
|
997
1057
|
"mediaType": "image",
|
|
998
1058
|
"mediaSubtype": "webp",
|
|
999
|
-
"tags": ["
|
|
1059
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1000
1060
|
"models": ["Wan2.1", "Wan"],
|
|
1001
1061
|
"date": "2025-10-06",
|
|
1002
1062
|
"size": 20.95
|
|
@@ -1016,7 +1076,7 @@
|
|
|
1016
1076
|
},
|
|
1017
1077
|
{
|
|
1018
1078
|
"name": "video_wan2.1_fun_camera_v1.1_1.3B",
|
|
1019
|
-
"title": "Wan 2.1 Fun
|
|
1079
|
+
"title": "Wan 2.1 Contrôle Caméra Fun 1.3B",
|
|
1020
1080
|
"description": "Générer des vidéos dynamiques avec des mouvements de caméra cinématographiques en utilisant le modèle Wan 2.1 Fun Camera 1.3B.",
|
|
1021
1081
|
"mediaType": "image",
|
|
1022
1082
|
"mediaSubtype": "webp",
|
|
@@ -1028,7 +1088,7 @@
|
|
|
1028
1088
|
},
|
|
1029
1089
|
{
|
|
1030
1090
|
"name": "video_wan2.1_fun_camera_v1.1_14B",
|
|
1031
|
-
"title": "Wan 2.1 Fun
|
|
1091
|
+
"title": "Wan 2.1 Contrôle Caméra Fun 14B",
|
|
1032
1092
|
"description": "Générer des vidéos de haute qualité avec un contrôle avancé de la caméra en utilisant le modèle 14B complet",
|
|
1033
1093
|
"mediaType": "image",
|
|
1034
1094
|
"mediaSubtype": "webp",
|
|
@@ -1040,24 +1100,24 @@
|
|
|
1040
1100
|
},
|
|
1041
1101
|
{
|
|
1042
1102
|
"name": "text_to_video_wan",
|
|
1043
|
-
"title": "Wan 2.1
|
|
1103
|
+
"title": "Wan 2.1 Texte vers Vidéo",
|
|
1044
1104
|
"description": "Générer des vidéos à partir de prompts textuels en utilisant Wan 2.1.",
|
|
1045
1105
|
"mediaType": "image",
|
|
1046
1106
|
"mediaSubtype": "webp",
|
|
1047
1107
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan-video",
|
|
1048
|
-
"tags": ["Texte vers
|
|
1108
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1049
1109
|
"models": ["Wan2.1", "Wan"],
|
|
1050
1110
|
"date": "2025-03-01",
|
|
1051
1111
|
"size": 9.15
|
|
1052
1112
|
},
|
|
1053
1113
|
{
|
|
1054
1114
|
"name": "image_to_video_wan",
|
|
1055
|
-
"title": "Wan 2.1 Image
|
|
1115
|
+
"title": "Wan 2.1 Image vers Vidéo",
|
|
1056
1116
|
"description": "Générer des vidéos à partir d'images en utilisant Wan 2.1.",
|
|
1057
1117
|
"mediaType": "image",
|
|
1058
1118
|
"mediaSubtype": "webp",
|
|
1059
1119
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan-video",
|
|
1060
|
-
"tags": ["Texte vers
|
|
1120
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1061
1121
|
"models": ["Wan2.1", "Wan"],
|
|
1062
1122
|
"date": "2025-03-01",
|
|
1063
1123
|
"size": 38.23
|
|
@@ -1076,20 +1136,20 @@
|
|
|
1076
1136
|
},
|
|
1077
1137
|
{
|
|
1078
1138
|
"name": "wan2.1_fun_control",
|
|
1079
|
-
"title": "Wan 2.1
|
|
1139
|
+
"title": "Wan 2.1 Réseau de Contrôle",
|
|
1080
1140
|
"description": "Générer des vidéos guidées par des contrôles de pose, de profondeur et de contours en utilisant Wan 2.1 ControlNet.",
|
|
1081
1141
|
"mediaType": "image",
|
|
1082
1142
|
"mediaSubtype": "webp",
|
|
1083
1143
|
"thumbnailVariant": "hoverDissolve",
|
|
1084
1144
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/fun-control",
|
|
1085
|
-
"tags": ["Vidéo vers
|
|
1145
|
+
"tags": ["Vidéo vers vidéo", "Vidéo"],
|
|
1086
1146
|
"models": ["Wan2.1", "Wan"],
|
|
1087
1147
|
"date": "2025-04-15",
|
|
1088
1148
|
"size": 10.6
|
|
1089
1149
|
},
|
|
1090
1150
|
{
|
|
1091
1151
|
"name": "wan2.1_flf2v_720_f16",
|
|
1092
|
-
"title": "Wan 2.1
|
|
1152
|
+
"title": "Wan 2.1 Vidéo Premier-Dernier Image 720p F16",
|
|
1093
1153
|
"description": "Générer des vidéos en contrôlant les première et dernière images en utilisant Wan 2.1 FLF2V.",
|
|
1094
1154
|
"mediaType": "image",
|
|
1095
1155
|
"mediaSubtype": "webp",
|
|
@@ -1101,72 +1161,72 @@
|
|
|
1101
1161
|
},
|
|
1102
1162
|
{
|
|
1103
1163
|
"name": "ltxv_text_to_video",
|
|
1104
|
-
"title": "LTXV
|
|
1164
|
+
"title": "LTXV Texte vers Vidéo",
|
|
1105
1165
|
"mediaType": "image",
|
|
1106
1166
|
"mediaSubtype": "webp",
|
|
1107
1167
|
"description": "Générer des vidéos à partir de prompts textuels.",
|
|
1108
1168
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/ltxv",
|
|
1109
|
-
"tags": ["Texte vers
|
|
1169
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1110
1170
|
"models": ["LTXV"],
|
|
1111
1171
|
"date": "2025-03-01",
|
|
1112
1172
|
"size": 17.84
|
|
1113
1173
|
},
|
|
1114
1174
|
{
|
|
1115
1175
|
"name": "ltxv_image_to_video",
|
|
1116
|
-
"title": "LTXV Image
|
|
1176
|
+
"title": "LTXV Image vers Vidéo",
|
|
1117
1177
|
"mediaType": "image",
|
|
1118
1178
|
"mediaSubtype": "webp",
|
|
1119
1179
|
"description": "Générer des vidéos à partir d'images fixes.",
|
|
1120
1180
|
"tutorialUrl": "https://docs.comfy.org/tutorials/video/ltxv",
|
|
1121
|
-
"tags": ["Image vers
|
|
1181
|
+
"tags": ["Image vers vidéo", "Vidéo"],
|
|
1122
1182
|
"models": ["LTXV"],
|
|
1123
1183
|
"date": "2025-03-01",
|
|
1124
1184
|
"size": 17.84
|
|
1125
1185
|
},
|
|
1126
1186
|
{
|
|
1127
1187
|
"name": "mochi_text_to_video_example",
|
|
1128
|
-
"title": "Mochi
|
|
1188
|
+
"title": "Mochi Texte vers Vidéo",
|
|
1129
1189
|
"mediaType": "image",
|
|
1130
1190
|
"mediaSubtype": "webp",
|
|
1131
1191
|
"description": "Générer des vidéos à partir de prompts textuels en utilisant le modèle Mochi.",
|
|
1132
1192
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/mochi/",
|
|
1133
|
-
"tags": ["Texte vers
|
|
1193
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1134
1194
|
"models": ["Mochi"],
|
|
1135
1195
|
"date": "2025-03-01",
|
|
1136
1196
|
"size": 28.65
|
|
1137
1197
|
},
|
|
1138
1198
|
{
|
|
1139
1199
|
"name": "hunyuan_video_text_to_video",
|
|
1140
|
-
"title": "Hunyuan
|
|
1200
|
+
"title": "Hunyuan Vidéo Texte vers Vidéo",
|
|
1141
1201
|
"mediaType": "image",
|
|
1142
1202
|
"mediaSubtype": "webp",
|
|
1143
1203
|
"description": "Générer des vidéos à partir de prompts textuels en utilisant le modèle Hunyuan.",
|
|
1144
1204
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/",
|
|
1145
|
-
"tags": ["Texte vers
|
|
1205
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1146
1206
|
"models": ["Hunyuan Video"],
|
|
1147
1207
|
"date": "2025-03-01",
|
|
1148
1208
|
"size": 33.04
|
|
1149
1209
|
},
|
|
1150
1210
|
{
|
|
1151
1211
|
"name": "image_to_video",
|
|
1152
|
-
"title": "SVD Image
|
|
1212
|
+
"title": "SVD Image vers Vidéo",
|
|
1153
1213
|
"mediaType": "image",
|
|
1154
1214
|
"mediaSubtype": "webp",
|
|
1155
1215
|
"description": "Générer des vidéos à partir d'images fixes.",
|
|
1156
1216
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/video/#image-to-video",
|
|
1157
|
-
"tags": ["Image vers
|
|
1217
|
+
"tags": ["Image vers vidéo", "Vidéo"],
|
|
1158
1218
|
"models": ["SVD"],
|
|
1159
1219
|
"date": "2025-03-01",
|
|
1160
1220
|
"size": 8.9
|
|
1161
1221
|
},
|
|
1162
1222
|
{
|
|
1163
1223
|
"name": "txt_to_image_to_video",
|
|
1164
|
-
"title": "SVD
|
|
1224
|
+
"title": "SVD Texte à Image à Vidéo",
|
|
1165
1225
|
"mediaType": "image",
|
|
1166
1226
|
"mediaSubtype": "webp",
|
|
1167
1227
|
"description": "Générer des vidéos en créant d'abord des images à partir de prompts textuels.",
|
|
1168
1228
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/video/#image-to-video",
|
|
1169
|
-
"tags": ["Texte vers
|
|
1229
|
+
"tags": ["Texte vers vidéo", "Vidéo"],
|
|
1170
1230
|
"models": ["SVD"],
|
|
1171
1231
|
"date": "2025-03-01",
|
|
1172
1232
|
"size": 15.36
|
|
@@ -1182,11 +1242,11 @@
|
|
|
1182
1242
|
"templates": [
|
|
1183
1243
|
{
|
|
1184
1244
|
"name": "audio_stable_audio_example",
|
|
1185
|
-
"title": "Stable
|
|
1245
|
+
"title": "Audio Stable",
|
|
1186
1246
|
"mediaType": "audio",
|
|
1187
1247
|
"mediaSubtype": "mp3",
|
|
1188
1248
|
"description": "Générer de l'audio à partir de prompts textuels en utilisant Stable Audio.",
|
|
1189
|
-
"tags": ["Texte vers
|
|
1249
|
+
"tags": ["Texte vers audio", "Audio"],
|
|
1190
1250
|
"models": ["Stable Audio"],
|
|
1191
1251
|
"date": "2025-03-01",
|
|
1192
1252
|
"tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/audio/",
|
|
@@ -1194,11 +1254,11 @@
|
|
|
1194
1254
|
},
|
|
1195
1255
|
{
|
|
1196
1256
|
"name": "audio_ace_step_1_t2a_instrumentals",
|
|
1197
|
-
"title": "ACE-Step v1
|
|
1257
|
+
"title": "ACE-Step v1 Texte vers Musique Instrumentale",
|
|
1198
1258
|
"mediaType": "audio",
|
|
1199
1259
|
"mediaSubtype": "mp3",
|
|
1200
1260
|
"description": "Générer de la musique instrumentale à partir de prompts textuels en utilisant ACE-Step v1.",
|
|
1201
|
-
"tags": ["Texte vers
|
|
1261
|
+
"tags": ["Texte vers audio", "Audio"],
|
|
1202
1262
|
"models": ["ACE-Step"],
|
|
1203
1263
|
"date": "2025-03-01",
|
|
1204
1264
|
"tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
|
|
@@ -1206,11 +1266,11 @@
|
|
|
1206
1266
|
},
|
|
1207
1267
|
{
|
|
1208
1268
|
"name": "audio_ace_step_1_t2a_song",
|
|
1209
|
-
"title": "ACE Step v1
|
|
1269
|
+
"title": "ACE Step v1 Texte vers Chanson",
|
|
1210
1270
|
"mediaType": "audio",
|
|
1211
1271
|
"mediaSubtype": "mp3",
|
|
1212
1272
|
"description": "Générer des chansons avec des voix à partir de prompts textuels en utilisant ACE-Step v1, prenant en charge la multilingue et la personnalisation du style.",
|
|
1213
|
-
"tags": ["Texte vers
|
|
1273
|
+
"tags": ["Texte vers audio", "Audio"],
|
|
1214
1274
|
"models": ["ACE-Step"],
|
|
1215
1275
|
"date": "2025-03-01",
|
|
1216
1276
|
"tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
|
|
@@ -1218,11 +1278,11 @@
|
|
|
1218
1278
|
},
|
|
1219
1279
|
{
|
|
1220
1280
|
"name": "audio_ace_step_1_m2m_editing",
|
|
1221
|
-
"title": "ACE Step v1 M2M
|
|
1281
|
+
"title": "ACE Step v1 Édition M2M",
|
|
1222
1282
|
"mediaType": "audio",
|
|
1223
1283
|
"mediaSubtype": "mp3",
|
|
1224
1284
|
"description": "Éditer des chansons existantes pour changer le style et les paroles en utilisant ACE-Step v1 M2M.",
|
|
1225
|
-
"tags": ["Édition
|
|
1285
|
+
"tags": ["Édition audio", "Audio"],
|
|
1226
1286
|
"models": ["ACE-Step"],
|
|
1227
1287
|
"date": "2025-03-01",
|
|
1228
1288
|
"tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
|
|
@@ -1235,15 +1295,15 @@
|
|
|
1235
1295
|
"type": "3d",
|
|
1236
1296
|
"category": "GENERATION TYPE",
|
|
1237
1297
|
"icon": "icon-[lucide--box]",
|
|
1238
|
-
"title": "3D",
|
|
1298
|
+
"title": "3D Model",
|
|
1239
1299
|
"templates": [
|
|
1240
1300
|
{
|
|
1241
1301
|
"name": "3d_hunyuan3d-v2.1",
|
|
1242
1302
|
"title": "Hunyuan3D 2.1",
|
|
1243
1303
|
"mediaType": "image",
|
|
1244
1304
|
"mediaSubtype": "webp",
|
|
1245
|
-
"description": "
|
|
1246
|
-
"tags": ["Image
|
|
1305
|
+
"description": "Générez des modèles 3D à partir d'images uniques avec Hunyuan3D 2.0.",
|
|
1306
|
+
"tags": ["Image vers 3D", "3D"],
|
|
1247
1307
|
"models": ["Hunyuan3D"],
|
|
1248
1308
|
"date": "2025-03-01",
|
|
1249
1309
|
"tutorialUrl": "",
|
|
@@ -1255,7 +1315,7 @@
|
|
|
1255
1315
|
"mediaType": "image",
|
|
1256
1316
|
"mediaSubtype": "webp",
|
|
1257
1317
|
"description": "Générer des modèles 3D à partir d'images simples en utilisant Hunyuan3D 2.0.",
|
|
1258
|
-
"tags": ["Image vers
|
|
1318
|
+
"tags": ["Image vers 3D", "3D"],
|
|
1259
1319
|
"models": ["Hunyuan3D"],
|
|
1260
1320
|
"date": "2025-03-01",
|
|
1261
1321
|
"tutorialUrl": "",
|
|
@@ -1264,11 +1324,11 @@
|
|
|
1264
1324
|
},
|
|
1265
1325
|
{
|
|
1266
1326
|
"name": "3d_hunyuan3d_multiview_to_model",
|
|
1267
|
-
"title": "Hunyuan3D 2.0
|
|
1327
|
+
"title": "Hunyuan3D 2.0 Multivue",
|
|
1268
1328
|
"mediaType": "image",
|
|
1269
1329
|
"mediaSubtype": "webp",
|
|
1270
1330
|
"description": "Générer des modèles 3D à partir de vues multiples en utilisant Hunyuan3D 2.0 MV.",
|
|
1271
|
-
"tags": ["
|
|
1331
|
+
"tags": ["3D", "Image vers 3D"],
|
|
1272
1332
|
"models": ["Hunyuan3D"],
|
|
1273
1333
|
"date": "2025-03-01",
|
|
1274
1334
|
"tutorialUrl": "",
|
|
@@ -1277,11 +1337,11 @@
|
|
|
1277
1337
|
},
|
|
1278
1338
|
{
|
|
1279
1339
|
"name": "3d_hunyuan3d_multiview_to_model_turbo",
|
|
1280
|
-
"title": "Hunyuan3D 2.0
|
|
1340
|
+
"title": "Hunyuan3D 2.0 Multivue Turbo",
|
|
1281
1341
|
"mediaType": "image",
|
|
1282
1342
|
"mediaSubtype": "webp",
|
|
1283
1343
|
"description": "Générer des modèles 3D à partir de vues multiples en utilisant Hunyuan3D 2.0 MV Turbo.",
|
|
1284
|
-
"tags": ["
|
|
1344
|
+
"tags": ["Image vers 3D", "3D"],
|
|
1285
1345
|
"models": ["Hunyuan3D"],
|
|
1286
1346
|
"date": "2025-03-01",
|
|
1287
1347
|
"tutorialUrl": "",
|
|
@@ -1295,15 +1355,15 @@
|
|
|
1295
1355
|
"type": "image",
|
|
1296
1356
|
"category": "CLOSED SOURCE MODELS",
|
|
1297
1357
|
"icon": "icon-[lucide--hand-coins]",
|
|
1298
|
-
"title": "API
|
|
1358
|
+
"title": "Image API",
|
|
1299
1359
|
"templates": [
|
|
1300
1360
|
{
|
|
1301
1361
|
"name": "api_bytedance_seedream4",
|
|
1302
1362
|
"title": "ByteDance Seedream 4.0",
|
|
1303
|
-
"description": "
|
|
1363
|
+
"description": "Modèle d'IA multimodal pour la génération d'images à partir de texte et l'édition d'images. Générez des images 2K en moins de 2 secondes avec un contrôle en langage naturel.",
|
|
1304
1364
|
"mediaType": "image",
|
|
1305
1365
|
"mediaSubtype": "webp",
|
|
1306
|
-
"tags": ["
|
|
1366
|
+
"tags": ["Édition d'image", "Image", "API", "Texte vers image"],
|
|
1307
1367
|
"models": ["Seedream 4.0", "ByteDance"],
|
|
1308
1368
|
"date": "2025-09-11",
|
|
1309
1369
|
"OpenSource": false,
|
|
@@ -1316,7 +1376,7 @@
|
|
|
1316
1376
|
"description": "Nano-banana (Gemini-2.5-Flash Image) - édition d'images avec cohérence.",
|
|
1317
1377
|
"mediaType": "image",
|
|
1318
1378
|
"mediaSubtype": "webp",
|
|
1319
|
-
"tags": ["Édition d'
|
|
1379
|
+
"tags": ["Édition d'image", "Image", "API", "Texte vers image"],
|
|
1320
1380
|
"models": ["Gemini-2.5-Flash", "nano-banana", "Google"],
|
|
1321
1381
|
"date": "2025-08-27",
|
|
1322
1382
|
"OpenSource": false,
|
|
@@ -1325,13 +1385,13 @@
|
|
|
1325
1385
|
},
|
|
1326
1386
|
{
|
|
1327
1387
|
"name": "api_bfl_flux_1_kontext_multiple_images_input",
|
|
1328
|
-
"title": "BFL Flux.1 Kontext
|
|
1388
|
+
"title": "BFL Flux.1 Kontext Entrée Multi-Images",
|
|
1329
1389
|
"description": "Importer plusieurs images et les éditer avec Flux.1 Kontext.",
|
|
1330
1390
|
"mediaType": "image",
|
|
1331
1391
|
"mediaSubtype": "webp",
|
|
1332
1392
|
"thumbnailVariant": "compareSlider",
|
|
1333
1393
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
|
|
1334
|
-
"tags": ["Édition d'
|
|
1394
|
+
"tags": ["Édition d'image", "Image"],
|
|
1335
1395
|
"models": ["Flux", "Kontext"],
|
|
1336
1396
|
"date": "2025-05-29",
|
|
1337
1397
|
"OpenSource": false,
|
|
@@ -1346,7 +1406,7 @@
|
|
|
1346
1406
|
"mediaSubtype": "webp",
|
|
1347
1407
|
"thumbnailVariant": "compareSlider",
|
|
1348
1408
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
|
|
1349
|
-
"tags": ["Édition d'
|
|
1409
|
+
"tags": ["Édition d'image", "Image"],
|
|
1350
1410
|
"models": ["Flux", "Kontext", "BFL"],
|
|
1351
1411
|
"date": "2025-05-29",
|
|
1352
1412
|
"OpenSource": false,
|
|
@@ -1361,7 +1421,7 @@
|
|
|
1361
1421
|
"mediaSubtype": "webp",
|
|
1362
1422
|
"thumbnailVariant": "compareSlider",
|
|
1363
1423
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
|
|
1364
|
-
"tags": ["Édition d'
|
|
1424
|
+
"tags": ["Édition d'image", "Image"],
|
|
1365
1425
|
"models": ["Flux", "Kontext", "BFL"],
|
|
1366
1426
|
"date": "2025-05-29",
|
|
1367
1427
|
"OpenSource": false,
|
|
@@ -1370,11 +1430,11 @@
|
|
|
1370
1430
|
},
|
|
1371
1431
|
{
|
|
1372
1432
|
"name": "api_wan_text_to_image",
|
|
1373
|
-
"title": "Wan2.5:
|
|
1374
|
-
"description": "
|
|
1433
|
+
"title": "Wan2.5: Texte vers Image",
|
|
1434
|
+
"description": "Générez des images avec un excellent suivi des prompts et une qualité visuelle élevée avec FLUX.1 Pro.",
|
|
1375
1435
|
"mediaType": "image",
|
|
1376
1436
|
"mediaSubtype": "webp",
|
|
1377
|
-
"tags": ["
|
|
1437
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1378
1438
|
"models": ["Wan2.5"],
|
|
1379
1439
|
"date": "2025-09-25",
|
|
1380
1440
|
"OpenSource": false,
|
|
@@ -1383,12 +1443,12 @@
|
|
|
1383
1443
|
},
|
|
1384
1444
|
{
|
|
1385
1445
|
"name": "api_bfl_flux_pro_t2i",
|
|
1386
|
-
"title": "BFL Flux[Pro]:
|
|
1446
|
+
"title": "BFL Flux[Pro]: Texte vers Image",
|
|
1387
1447
|
"description": "Générer des images avec un excellent suivi des prompts et une qualité visuelle en utilisant FLUX.1 Pro.",
|
|
1388
1448
|
"mediaType": "image",
|
|
1389
1449
|
"mediaSubtype": "webp",
|
|
1390
1450
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-1-pro-ultra-image",
|
|
1391
|
-
"tags": ["Édition d'
|
|
1451
|
+
"tags": ["Édition d'image", "Image"],
|
|
1392
1452
|
"models": ["Flux", "BFL"],
|
|
1393
1453
|
"date": "2025-05-01",
|
|
1394
1454
|
"OpenSource": false,
|
|
@@ -1397,12 +1457,12 @@
|
|
|
1397
1457
|
},
|
|
1398
1458
|
{
|
|
1399
1459
|
"name": "api_luma_photon_i2i",
|
|
1400
|
-
"title": "Luma Photon: Image
|
|
1460
|
+
"title": "Luma Photon: Image vers Image",
|
|
1401
1461
|
"description": "Guider la génération d'images en utilisant une combinaison d'images et de prompt.",
|
|
1402
1462
|
"mediaType": "image",
|
|
1403
1463
|
"mediaSubtype": "webp",
|
|
1404
1464
|
"thumbnailVariant": "compareSlider",
|
|
1405
|
-
"tags": ["Image vers
|
|
1465
|
+
"tags": ["Image vers image", "Image", "API"],
|
|
1406
1466
|
"models": ["Luma"],
|
|
1407
1467
|
"date": "2025-03-01",
|
|
1408
1468
|
"OpenSource": false,
|
|
@@ -1411,12 +1471,12 @@
|
|
|
1411
1471
|
},
|
|
1412
1472
|
{
|
|
1413
1473
|
"name": "api_luma_photon_style_ref",
|
|
1414
|
-
"title": "Luma Photon: Style
|
|
1474
|
+
"title": "Luma Photon: Référence de Style",
|
|
1415
1475
|
"description": "Générer des images en mélangeant des références de style avec un contrôle précis en utilisant Luma Photon.",
|
|
1416
1476
|
"mediaType": "image",
|
|
1417
1477
|
"mediaSubtype": "webp",
|
|
1418
1478
|
"thumbnailVariant": "compareSlider",
|
|
1419
|
-
"tags": ["Texte vers
|
|
1479
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1420
1480
|
"models": ["Luma"],
|
|
1421
1481
|
"date": "2025-03-01",
|
|
1422
1482
|
"OpenSource": false,
|
|
@@ -1425,11 +1485,11 @@
|
|
|
1425
1485
|
},
|
|
1426
1486
|
{
|
|
1427
1487
|
"name": "api_recraft_image_gen_with_color_control",
|
|
1428
|
-
"title": "Recraft:
|
|
1488
|
+
"title": "Recraft: Génération d'Image avec Contrôle Couleur",
|
|
1429
1489
|
"description": "Générer des images avec des palettes de couleurs personnalisées et des visuels spécifiques à la marque en utilisant Recraft.",
|
|
1430
1490
|
"mediaType": "image",
|
|
1431
1491
|
"mediaSubtype": "webp",
|
|
1432
|
-
"tags": ["Texte vers
|
|
1492
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1433
1493
|
"models": ["Recraft"],
|
|
1434
1494
|
"date": "2025-03-01",
|
|
1435
1495
|
"OpenSource": false,
|
|
@@ -1438,11 +1498,11 @@
|
|
|
1438
1498
|
},
|
|
1439
1499
|
{
|
|
1440
1500
|
"name": "api_recraft_image_gen_with_style_control",
|
|
1441
|
-
"title": "Recraft:
|
|
1501
|
+
"title": "Recraft: Génération d'Image avec Contrôle Style",
|
|
1442
1502
|
"description": "Contrôler le style avec des exemples visuels, aligner le positionnement et affiner les objets. Stocker et partager des styles pour une cohérence de marque parfaite.",
|
|
1443
1503
|
"mediaType": "image",
|
|
1444
1504
|
"mediaSubtype": "webp",
|
|
1445
|
-
"tags": ["Texte vers
|
|
1505
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1446
1506
|
"models": ["Recraft"],
|
|
1447
1507
|
"date": "2025-03-01",
|
|
1448
1508
|
"OpenSource": false,
|
|
@@ -1451,11 +1511,11 @@
|
|
|
1451
1511
|
},
|
|
1452
1512
|
{
|
|
1453
1513
|
"name": "api_recraft_vector_gen",
|
|
1454
|
-
"title": "Recraft:
|
|
1514
|
+
"title": "Recraft: Génération Vectorielle",
|
|
1455
1515
|
"description": "Générer des images vectorielles de haute qualité à partir de prompts textuels en utilisant le générateur AI vectoriel de Recraft.",
|
|
1456
1516
|
"mediaType": "image",
|
|
1457
1517
|
"mediaSubtype": "webp",
|
|
1458
|
-
"tags": ["Texte vers
|
|
1518
|
+
"tags": ["Texte vers image", "Image", "API", "Vectoriel"],
|
|
1459
1519
|
"models": ["Recraft"],
|
|
1460
1520
|
"date": "2025-03-01",
|
|
1461
1521
|
"OpenSource": false,
|
|
@@ -1464,11 +1524,11 @@
|
|
|
1464
1524
|
},
|
|
1465
1525
|
{
|
|
1466
1526
|
"name": "api_runway_text_to_image",
|
|
1467
|
-
"title": "Runway:
|
|
1527
|
+
"title": "Runway: Texte vers Image",
|
|
1468
1528
|
"description": "Générer des images de haute qualité à partir de prompts textuels en utilisant le modèle AI de Runway.",
|
|
1469
1529
|
"mediaType": "image",
|
|
1470
1530
|
"mediaSubtype": "webp",
|
|
1471
|
-
"tags": ["Texte vers
|
|
1531
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1472
1532
|
"models": ["Runway"],
|
|
1473
1533
|
"date": "2025-03-01",
|
|
1474
1534
|
"OpenSource": false,
|
|
@@ -1477,12 +1537,12 @@
|
|
|
1477
1537
|
},
|
|
1478
1538
|
{
|
|
1479
1539
|
"name": "api_runway_reference_to_image",
|
|
1480
|
-
"title": "Runway:
|
|
1540
|
+
"title": "Runway: Référence vers Image",
|
|
1481
1541
|
"description": "Générer de nouvelles images basées sur des styles et compositions de référence avec l'AI de Runway.",
|
|
1482
1542
|
"mediaType": "image",
|
|
1483
1543
|
"thumbnailVariant": "compareSlider",
|
|
1484
1544
|
"mediaSubtype": "webp",
|
|
1485
|
-
"tags": ["Image vers
|
|
1545
|
+
"tags": ["Image vers image", "Image", "API"],
|
|
1486
1546
|
"models": ["Runway"],
|
|
1487
1547
|
"date": "2025-03-01",
|
|
1488
1548
|
"OpenSource": false,
|
|
@@ -1491,11 +1551,11 @@
|
|
|
1491
1551
|
},
|
|
1492
1552
|
{
|
|
1493
1553
|
"name": "api_stability_ai_stable_image_ultra_t2i",
|
|
1494
|
-
"title": "Stability AI: Stable Image Ultra
|
|
1554
|
+
"title": "Stability AI: Stable Image Ultra Texte vers Image",
|
|
1495
1555
|
"description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
|
|
1496
1556
|
"mediaType": "image",
|
|
1497
1557
|
"mediaSubtype": "webp",
|
|
1498
|
-
"tags": ["Texte vers
|
|
1558
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1499
1559
|
"models": ["Stability"],
|
|
1500
1560
|
"date": "2025-03-01",
|
|
1501
1561
|
"OpenSource": false,
|
|
@@ -1504,12 +1564,12 @@
|
|
|
1504
1564
|
},
|
|
1505
1565
|
{
|
|
1506
1566
|
"name": "api_stability_ai_i2i",
|
|
1507
|
-
"title": "Stability AI: Image
|
|
1567
|
+
"title": "Stability AI: Image vers Image",
|
|
1508
1568
|
"description": "Transformer des images avec une génération de haute qualité en utilisant Stability AI, parfait pour l'édition professionnelle et le transfert de style.",
|
|
1509
1569
|
"mediaType": "image",
|
|
1510
1570
|
"thumbnailVariant": "compareSlider",
|
|
1511
1571
|
"mediaSubtype": "webp",
|
|
1512
|
-
"tags": ["Image vers
|
|
1572
|
+
"tags": ["Image vers image", "Image", "API"],
|
|
1513
1573
|
"models": ["Stability"],
|
|
1514
1574
|
"date": "2025-03-01",
|
|
1515
1575
|
"OpenSource": false,
|
|
@@ -1518,11 +1578,11 @@
|
|
|
1518
1578
|
},
|
|
1519
1579
|
{
|
|
1520
1580
|
"name": "api_stability_ai_sd3.5_t2i",
|
|
1521
|
-
"title": "Stability AI: SD3.5
|
|
1581
|
+
"title": "Stability AI: SD3.5 Texte vers Image",
|
|
1522
1582
|
"description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
|
|
1523
1583
|
"mediaType": "image",
|
|
1524
1584
|
"mediaSubtype": "webp",
|
|
1525
|
-
"tags": ["Texte vers
|
|
1585
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1526
1586
|
"models": ["Stability"],
|
|
1527
1587
|
"date": "2025-03-01",
|
|
1528
1588
|
"OpenSource": false,
|
|
@@ -1531,12 +1591,12 @@
|
|
|
1531
1591
|
},
|
|
1532
1592
|
{
|
|
1533
1593
|
"name": "api_stability_ai_sd3.5_i2i",
|
|
1534
|
-
"title": "Stability AI: SD3.5 Image
|
|
1594
|
+
"title": "Stability AI: SD3.5 Image vers Image",
|
|
1535
1595
|
"description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
|
|
1536
1596
|
"mediaType": "image",
|
|
1537
1597
|
"thumbnailVariant": "compareSlider",
|
|
1538
1598
|
"mediaSubtype": "webp",
|
|
1539
|
-
"tags": ["Image vers
|
|
1599
|
+
"tags": ["Image vers image", "Image", "API"],
|
|
1540
1600
|
"models": ["Stability"],
|
|
1541
1601
|
"date": "2025-03-01",
|
|
1542
1602
|
"OpenSource": false,
|
|
@@ -1545,11 +1605,11 @@
|
|
|
1545
1605
|
},
|
|
1546
1606
|
{
|
|
1547
1607
|
"name": "api_ideogram_v3_t2i",
|
|
1548
|
-
"title": "Ideogram V3:
|
|
1608
|
+
"title": "Ideogram V3: Texte vers Image",
|
|
1549
1609
|
"description": "Générer des images de qualité professionnelle avec un excellent alignement des prompts, du photoréalisme et un rendu de texte en utilisant Ideogram V3.",
|
|
1550
1610
|
"mediaType": "image",
|
|
1551
1611
|
"mediaSubtype": "webp",
|
|
1552
|
-
"tags": ["Texte vers
|
|
1612
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1553
1613
|
"models": ["Ideogram"],
|
|
1554
1614
|
"date": "2025-03-01",
|
|
1555
1615
|
"OpenSource": false,
|
|
@@ -1558,11 +1618,11 @@
|
|
|
1558
1618
|
},
|
|
1559
1619
|
{
|
|
1560
1620
|
"name": "api_openai_image_1_t2i",
|
|
1561
|
-
"title": "OpenAI: GPT-Image-1
|
|
1621
|
+
"title": "OpenAI: GPT-Image-1 Texte vers Image",
|
|
1562
1622
|
"description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI GPT Image 1.",
|
|
1563
1623
|
"mediaType": "image",
|
|
1564
1624
|
"mediaSubtype": "webp",
|
|
1565
|
-
"tags": ["Texte vers
|
|
1625
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1566
1626
|
"models": ["GPT-Image-1", "OpenAI"],
|
|
1567
1627
|
"date": "2025-03-01",
|
|
1568
1628
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
|
|
@@ -1572,12 +1632,12 @@
|
|
|
1572
1632
|
},
|
|
1573
1633
|
{
|
|
1574
1634
|
"name": "api_openai_image_1_i2i",
|
|
1575
|
-
"title": "OpenAI: GPT-Image-1 Image
|
|
1635
|
+
"title": "OpenAI: GPT-Image-1 Image vers Image",
|
|
1576
1636
|
"description": "Générer des images à partir d'images d'entrée en utilisant l'API OpenAI GPT Image 1.",
|
|
1577
1637
|
"mediaType": "image",
|
|
1578
1638
|
"mediaSubtype": "webp",
|
|
1579
1639
|
"thumbnailVariant": "compareSlider",
|
|
1580
|
-
"tags": ["Image vers
|
|
1640
|
+
"tags": ["Image vers image", "Image", "API"],
|
|
1581
1641
|
"models": ["GPT-Image-1"],
|
|
1582
1642
|
"date": "2025-03-01",
|
|
1583
1643
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
|
|
@@ -1587,7 +1647,7 @@
|
|
|
1587
1647
|
},
|
|
1588
1648
|
{
|
|
1589
1649
|
"name": "api_openai_image_1_inpaint",
|
|
1590
|
-
"title": "OpenAI: GPT-Image-1
|
|
1650
|
+
"title": "OpenAI: GPT-Image-1 Inpainting",
|
|
1591
1651
|
"description": "Éditer des images en utilisant l'inpainting avec l'API OpenAI GPT Image 1.",
|
|
1592
1652
|
"mediaType": "image",
|
|
1593
1653
|
"mediaSubtype": "webp",
|
|
@@ -1602,12 +1662,12 @@
|
|
|
1602
1662
|
},
|
|
1603
1663
|
{
|
|
1604
1664
|
"name": "api_openai_image_1_multi_inputs",
|
|
1605
|
-
"title": "OpenAI: GPT-Image-1 Multi
|
|
1665
|
+
"title": "OpenAI: GPT-Image-1 Multi Entrées",
|
|
1606
1666
|
"description": "Générer des images à partir de plusieurs entrées en utilisant l'API OpenAI GPT Image 1.",
|
|
1607
1667
|
"mediaType": "image",
|
|
1608
1668
|
"mediaSubtype": "webp",
|
|
1609
1669
|
"thumbnailVariant": "compareSlider",
|
|
1610
|
-
"tags": ["Texte vers
|
|
1670
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1611
1671
|
"models": ["GPT-Image-1"],
|
|
1612
1672
|
"date": "2025-03-01",
|
|
1613
1673
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
|
|
@@ -1617,11 +1677,11 @@
|
|
|
1617
1677
|
},
|
|
1618
1678
|
{
|
|
1619
1679
|
"name": "api_openai_dall_e_2_t2i",
|
|
1620
|
-
"title": "OpenAI: Dall-E 2
|
|
1680
|
+
"title": "OpenAI: Dall-E 2 Texte vers Image",
|
|
1621
1681
|
"description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI Dall-E 2.",
|
|
1622
1682
|
"mediaType": "image",
|
|
1623
1683
|
"mediaSubtype": "webp",
|
|
1624
|
-
"tags": ["Texte vers
|
|
1684
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1625
1685
|
"models": ["Dall-E", "OpenAI"],
|
|
1626
1686
|
"date": "2025-03-01",
|
|
1627
1687
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/dall-e-2",
|
|
@@ -1631,7 +1691,7 @@
|
|
|
1631
1691
|
},
|
|
1632
1692
|
{
|
|
1633
1693
|
"name": "api_openai_dall_e_2_inpaint",
|
|
1634
|
-
"title": "OpenAI: Dall-E 2
|
|
1694
|
+
"title": "OpenAI: Dall-E 2 Inpainting",
|
|
1635
1695
|
"description": "Éditer des images en utilisant l'inpainting avec l'API OpenAI Dall-E 2.",
|
|
1636
1696
|
"mediaType": "image",
|
|
1637
1697
|
"mediaSubtype": "webp",
|
|
@@ -1646,11 +1706,11 @@
|
|
|
1646
1706
|
},
|
|
1647
1707
|
{
|
|
1648
1708
|
"name": "api_openai_dall_e_3_t2i",
|
|
1649
|
-
"title": "OpenAI: Dall-E 3
|
|
1709
|
+
"title": "OpenAI: Dall-E 3 Texte vers Image",
|
|
1650
1710
|
"description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI Dall-E 3.",
|
|
1651
1711
|
"mediaType": "image",
|
|
1652
1712
|
"mediaSubtype": "webp",
|
|
1653
|
-
"tags": ["Texte vers
|
|
1713
|
+
"tags": ["Texte vers image", "Image", "API"],
|
|
1654
1714
|
"models": ["Dall-E", "OpenAI"],
|
|
1655
1715
|
"date": "2025-03-01",
|
|
1656
1716
|
"tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/dall-e-3",
|
|
@@ -1665,15 +1725,15 @@
|
|
|
1665
1725
|
"type": "video",
|
|
1666
1726
|
"category": "CLOSED SOURCE MODELS",
|
|
1667
1727
|
"icon": "icon-[lucide--film]",
|
|
1668
|
-
"title": "API
|
|
1728
|
+
"title": "Video API",
|
|
1669
1729
|
"templates": [
|
|
1670
1730
|
{
|
|
1671
1731
|
"name": "api_openai_sora_video",
|
|
1672
|
-
"title": "Sora 2:
|
|
1673
|
-
"description": "
|
|
1732
|
+
"title": "Sora 2: Texte et Image vers Vidéo",
|
|
1733
|
+
"description": "Génération vidéo Sora-2 et Sora-2 Pro d'OpenAI avec audio synchronisé.",
|
|
1674
1734
|
"mediaType": "image",
|
|
1675
1735
|
"mediaSubtype": "webp",
|
|
1676
|
-
"tags": ["Image
|
|
1736
|
+
"tags": ["Image vers vidéo", "Texte vers vidéo", "API"],
|
|
1677
1737
|
"models": ["OpenAI"],
|
|
1678
1738
|
"date": "2025-10-08",
|
|
1679
1739
|
"OpenSource": false,
|
|
@@ -1682,11 +1742,11 @@
|
|
|
1682
1742
|
},
|
|
1683
1743
|
{
|
|
1684
1744
|
"name": "api_wan_text_to_video",
|
|
1685
|
-
"title": "Wan2.5:
|
|
1686
|
-
"description": "
|
|
1745
|
+
"title": "Wan2.5: Texte vers Vidéo",
|
|
1746
|
+
"description": "Générez des vidéos avec audio synchronisé, mouvement amélioré et qualité supérieure.",
|
|
1687
1747
|
"mediaType": "image",
|
|
1688
1748
|
"mediaSubtype": "webp",
|
|
1689
|
-
"tags": ["Image
|
|
1749
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1690
1750
|
"models": ["Wan2.5"],
|
|
1691
1751
|
"date": "2025-09-27",
|
|
1692
1752
|
"tutorialUrl": "",
|
|
@@ -1696,11 +1756,11 @@
|
|
|
1696
1756
|
},
|
|
1697
1757
|
{
|
|
1698
1758
|
"name": "api_wan_image_to_video",
|
|
1699
|
-
"title": "Wan2.5: Image
|
|
1700
|
-
"description": "
|
|
1759
|
+
"title": "Wan2.5: Image vers Vidéo",
|
|
1760
|
+
"description": "Transformez des images en vidéos avec audio synchronisé, mouvement amélioré et qualité supérieure.",
|
|
1701
1761
|
"mediaType": "image",
|
|
1702
1762
|
"mediaSubtype": "webp",
|
|
1703
|
-
"tags": ["Image
|
|
1763
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1704
1764
|
"models": ["Wan2.5"],
|
|
1705
1765
|
"date": "2025-09-27",
|
|
1706
1766
|
"tutorialUrl": "",
|
|
@@ -1710,11 +1770,11 @@
|
|
|
1710
1770
|
},
|
|
1711
1771
|
{
|
|
1712
1772
|
"name": "api_kling_i2v",
|
|
1713
|
-
"title": "Kling: Image
|
|
1773
|
+
"title": "Kling: Image vers Vidéo",
|
|
1714
1774
|
"description": "Générer des vidéos avec une excellente adhérence aux prompts pour les actions, expressions et mouvements de caméra en utilisant Kling.",
|
|
1715
1775
|
"mediaType": "image",
|
|
1716
1776
|
"mediaSubtype": "webp",
|
|
1717
|
-
"tags": ["Image vers
|
|
1777
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1718
1778
|
"models": ["Kling"],
|
|
1719
1779
|
"date": "2025-03-01",
|
|
1720
1780
|
"tutorialUrl": "",
|
|
@@ -1724,11 +1784,11 @@
|
|
|
1724
1784
|
},
|
|
1725
1785
|
{
|
|
1726
1786
|
"name": "api_kling_effects",
|
|
1727
|
-
"title": "Kling:
|
|
1787
|
+
"title": "Kling: Effets Vidéo",
|
|
1728
1788
|
"description": "Générer des vidéos dynamiques en appliquant des effets visuels aux images en utilisant Kling.",
|
|
1729
1789
|
"mediaType": "image",
|
|
1730
1790
|
"mediaSubtype": "webp",
|
|
1731
|
-
"tags": ["
|
|
1791
|
+
"tags": ["Vidéo", "API"],
|
|
1732
1792
|
"models": ["Kling"],
|
|
1733
1793
|
"date": "2025-03-01",
|
|
1734
1794
|
"tutorialUrl": "",
|
|
@@ -1742,7 +1802,7 @@
|
|
|
1742
1802
|
"description": "Générer des vidéos en contrôlant les première et dernière images.",
|
|
1743
1803
|
"mediaType": "image",
|
|
1744
1804
|
"mediaSubtype": "webp",
|
|
1745
|
-
"tags": ["
|
|
1805
|
+
"tags": ["Vidéo", "API", "FLF2V"],
|
|
1746
1806
|
"models": ["Kling"],
|
|
1747
1807
|
"date": "2025-03-01",
|
|
1748
1808
|
"tutorialUrl": "",
|
|
@@ -1752,11 +1812,11 @@
|
|
|
1752
1812
|
},
|
|
1753
1813
|
{
|
|
1754
1814
|
"name": "api_vidu_text_to_video",
|
|
1755
|
-
"title": "Vidu:
|
|
1815
|
+
"title": "Vidu: Texte vers Vidéo",
|
|
1756
1816
|
"description": "Générer des vidéos 1080p de haute qualité à partir de prompts textuels avec un contrôle ajustable de l'amplitude des mouvements et de la durée en utilisant le modèle AI avancé de Vidu.",
|
|
1757
1817
|
"mediaType": "image",
|
|
1758
1818
|
"mediaSubtype": "webp",
|
|
1759
|
-
"tags": ["Texte vers
|
|
1819
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
1760
1820
|
"models": ["Vidu"],
|
|
1761
1821
|
"date": "2025-08-23",
|
|
1762
1822
|
"tutorialUrl": "",
|
|
@@ -1766,11 +1826,11 @@
|
|
|
1766
1826
|
},
|
|
1767
1827
|
{
|
|
1768
1828
|
"name": "api_vidu_image_to_video",
|
|
1769
|
-
"title": "Vidu: Image
|
|
1829
|
+
"title": "Vidu: Image vers Vidéo",
|
|
1770
1830
|
"description": "Transformer des images statiques en vidéos 1080p dynamiques avec un contrôle précis du mouvement et une amplitude de mouvement personnalisable en utilisant Vidu.",
|
|
1771
1831
|
"mediaType": "image",
|
|
1772
1832
|
"mediaSubtype": "webp",
|
|
1773
|
-
"tags": ["Image vers
|
|
1833
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1774
1834
|
"models": ["Vidu"],
|
|
1775
1835
|
"date": "2025-08-23",
|
|
1776
1836
|
"tutorialUrl": "",
|
|
@@ -1780,11 +1840,11 @@
|
|
|
1780
1840
|
},
|
|
1781
1841
|
{
|
|
1782
1842
|
"name": "api_vidu_reference_to_video",
|
|
1783
|
-
"title": "Vidu:
|
|
1843
|
+
"title": "Vidu: Référence vers Vidéo",
|
|
1784
1844
|
"description": "Generate videos with consistent subjects using multiple reference images (up to 7) for character and style continuity across the video sequence.",
|
|
1785
1845
|
"mediaType": "image",
|
|
1786
1846
|
"mediaSubtype": "webp",
|
|
1787
|
-
"tags": ["
|
|
1847
|
+
"tags": ["Vidéo", "Image vers vidéo", "API"],
|
|
1788
1848
|
"models": ["Vidu"],
|
|
1789
1849
|
"date": "2025-08-23",
|
|
1790
1850
|
"tutorialUrl": "",
|
|
@@ -1794,11 +1854,11 @@
|
|
|
1794
1854
|
},
|
|
1795
1855
|
{
|
|
1796
1856
|
"name": "api_vidu_start_end_to_video",
|
|
1797
|
-
"title": "Vidu:
|
|
1857
|
+
"title": "Vidu: Début-Fin vers Vidéo",
|
|
1798
1858
|
"description": "Create smooth video transitions between defined start and end frames with natural motion interpolation and consistent visual quality.",
|
|
1799
1859
|
"mediaType": "image",
|
|
1800
1860
|
"mediaSubtype": "webp",
|
|
1801
|
-
"tags": ["
|
|
1861
|
+
"tags": ["Vidéo", "API", "FLF2V"],
|
|
1802
1862
|
"models": ["Vidu"],
|
|
1803
1863
|
"date": "2025-08-23",
|
|
1804
1864
|
"tutorialUrl": "",
|
|
@@ -1808,11 +1868,11 @@
|
|
|
1808
1868
|
},
|
|
1809
1869
|
{
|
|
1810
1870
|
"name": "api_bytedance_text_to_video",
|
|
1811
|
-
"title": "ByteDance:
|
|
1812
|
-
"description": "
|
|
1871
|
+
"title": "ByteDance: Texte vers Vidéo",
|
|
1872
|
+
"description": "Générez des vidéos de haute qualité directement à partir de prompts textuels avec le modèle Seedance de ByteDance. Prend en charge plusieurs résolutions et ratios d'aspect avec un mouvement naturel et une qualité cinématographique.",
|
|
1813
1873
|
"mediaType": "image",
|
|
1814
1874
|
"mediaSubtype": "webp",
|
|
1815
|
-
"tags": ["
|
|
1875
|
+
"tags": ["Vidéo", "API", "Texte vers vidéo"],
|
|
1816
1876
|
"models": ["ByteDance"],
|
|
1817
1877
|
"date": "2025-10-6",
|
|
1818
1878
|
"tutorialUrl": "",
|
|
@@ -1822,11 +1882,11 @@
|
|
|
1822
1882
|
},
|
|
1823
1883
|
{
|
|
1824
1884
|
"name": "api_bytedance_image_to_video",
|
|
1825
|
-
"title": "ByteDance: Image
|
|
1826
|
-
"description": "
|
|
1885
|
+
"title": "ByteDance: Image vers Vidéo",
|
|
1886
|
+
"description": "Transformez des images statiques en vidéos dynamiques avec le modèle Seedance de ByteDance. Analyse la structure de l'image et génère un mouvement naturel avec un style visuel cohérent et des séquences vidéo cohérentes.",
|
|
1827
1887
|
"mediaType": "image",
|
|
1828
1888
|
"mediaSubtype": "webp",
|
|
1829
|
-
"tags": ["
|
|
1889
|
+
"tags": ["Vidéo", "API", "Image vers vidéo"],
|
|
1830
1890
|
"models": ["ByteDance"],
|
|
1831
1891
|
"date": "2025-10-6",
|
|
1832
1892
|
"tutorialUrl": "",
|
|
@@ -1836,11 +1896,11 @@
|
|
|
1836
1896
|
},
|
|
1837
1897
|
{
|
|
1838
1898
|
"name": "api_bytedance_flf2v",
|
|
1839
|
-
"title": "ByteDance:
|
|
1840
|
-
"description": "
|
|
1899
|
+
"title": "ByteDance: Début-Fin vers Vidéo",
|
|
1900
|
+
"description": "Générez des transitions vidéo cinématographiques entre les images de début et de fin avec un mouvement fluide, une cohérence de scène et une finition professionnelle avec le modèle Seedance de ByteDance.",
|
|
1841
1901
|
"mediaType": "image",
|
|
1842
1902
|
"mediaSubtype": "webp",
|
|
1843
|
-
"tags": ["
|
|
1903
|
+
"tags": ["Vidéo", "API", "FLF2V"],
|
|
1844
1904
|
"models": ["ByteDance"],
|
|
1845
1905
|
"date": "2025-10-6",
|
|
1846
1906
|
"tutorialUrl": "",
|
|
@@ -1850,11 +1910,11 @@
|
|
|
1850
1910
|
},
|
|
1851
1911
|
{
|
|
1852
1912
|
"name": "api_luma_i2v",
|
|
1853
|
-
"title": "Luma: Image
|
|
1913
|
+
"title": "Luma: Image vers Vidéo",
|
|
1854
1914
|
"description": "Take static images and instantly create magical high quality animations.",
|
|
1855
1915
|
"mediaType": "image",
|
|
1856
1916
|
"mediaSubtype": "webp",
|
|
1857
|
-
"tags": ["Image vers
|
|
1917
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1858
1918
|
"models": ["Luma"],
|
|
1859
1919
|
"date": "2025-03-01",
|
|
1860
1920
|
"tutorialUrl": "",
|
|
@@ -1864,11 +1924,11 @@
|
|
|
1864
1924
|
},
|
|
1865
1925
|
{
|
|
1866
1926
|
"name": "api_luma_t2v",
|
|
1867
|
-
"title": "Luma:
|
|
1927
|
+
"title": "Luma: Texte vers Vidéo",
|
|
1868
1928
|
"description": "High-quality videos can be generated using simple prompts.",
|
|
1869
1929
|
"mediaType": "image",
|
|
1870
1930
|
"mediaSubtype": "webp",
|
|
1871
|
-
"tags": ["Texte vers
|
|
1931
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
1872
1932
|
"models": ["Luma"],
|
|
1873
1933
|
"date": "2025-03-01",
|
|
1874
1934
|
"tutorialUrl": "",
|
|
@@ -1878,11 +1938,11 @@
|
|
|
1878
1938
|
},
|
|
1879
1939
|
{
|
|
1880
1940
|
"name": "api_moonvalley_text_to_video",
|
|
1881
|
-
"title": "Moonvalley:
|
|
1941
|
+
"title": "Moonvalley: Texte vers Vidéo",
|
|
1882
1942
|
"description": "Generate cinematic, 1080p videos from text prompts through a model trained exclusively on licensed data.",
|
|
1883
1943
|
"mediaType": "image",
|
|
1884
1944
|
"mediaSubtype": "webp",
|
|
1885
|
-
"tags": ["Texte vers
|
|
1945
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
1886
1946
|
"models": ["Moonvalley"],
|
|
1887
1947
|
"date": "2025-03-01",
|
|
1888
1948
|
"tutorialUrl": "",
|
|
@@ -1892,11 +1952,11 @@
|
|
|
1892
1952
|
},
|
|
1893
1953
|
{
|
|
1894
1954
|
"name": "api_moonvalley_image_to_video",
|
|
1895
|
-
"title": "Moonvalley: Image
|
|
1955
|
+
"title": "Moonvalley: Image vers Vidéo",
|
|
1896
1956
|
"description": "Generate cinematic, 1080p videos with an image through a model trained exclusively on licensed data.",
|
|
1897
1957
|
"mediaType": "image",
|
|
1898
1958
|
"mediaSubtype": "webp",
|
|
1899
|
-
"tags": ["Image vers
|
|
1959
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1900
1960
|
"models": ["Moonvalley"],
|
|
1901
1961
|
"date": "2025-03-01",
|
|
1902
1962
|
"tutorialUrl": "",
|
|
@@ -1906,12 +1966,12 @@
|
|
|
1906
1966
|
},
|
|
1907
1967
|
{
|
|
1908
1968
|
"name": "api_moonvalley_video_to_video_motion_transfer",
|
|
1909
|
-
"title": "Moonvalley:
|
|
1969
|
+
"title": "Moonvalley: Transfert de Mouvement",
|
|
1910
1970
|
"description": "Apply motion from one video to another.",
|
|
1911
1971
|
"mediaType": "image",
|
|
1912
1972
|
"thumbnailVariant": "hoverDissolve",
|
|
1913
1973
|
"mediaSubtype": "webp",
|
|
1914
|
-
"tags": ["Vidéo vers
|
|
1974
|
+
"tags": ["Vidéo vers vidéo", "Vidéo", "API"],
|
|
1915
1975
|
"models": ["Moonvalley"],
|
|
1916
1976
|
"date": "2025-03-01",
|
|
1917
1977
|
"tutorialUrl": "",
|
|
@@ -1921,12 +1981,12 @@
|
|
|
1921
1981
|
},
|
|
1922
1982
|
{
|
|
1923
1983
|
"name": "api_moonvalley_video_to_video_pose_control",
|
|
1924
|
-
"title": "Moonvalley: Pose
|
|
1984
|
+
"title": "Moonvalley: Contrôle de Pose",
|
|
1925
1985
|
"description": "Apply human pose and movement from one video to another.",
|
|
1926
1986
|
"mediaType": "image",
|
|
1927
1987
|
"thumbnailVariant": "hoverDissolve",
|
|
1928
1988
|
"mediaSubtype": "webp",
|
|
1929
|
-
"tags": ["Vidéo vers
|
|
1989
|
+
"tags": ["Vidéo vers vidéo", "Vidéo", "API"],
|
|
1930
1990
|
"models": ["Moonvalley"],
|
|
1931
1991
|
"date": "2025-03-01",
|
|
1932
1992
|
"tutorialUrl": "",
|
|
@@ -1936,11 +1996,11 @@
|
|
|
1936
1996
|
},
|
|
1937
1997
|
{
|
|
1938
1998
|
"name": "api_hailuo_minimax_video",
|
|
1939
|
-
"title": "MiniMax:
|
|
1940
|
-
"description": "
|
|
1999
|
+
"title": "MiniMax: Vidéo",
|
|
2000
|
+
"description": "Générez des vidéos de haute qualité à partir de prompts textuels avec contrôle optionnel de la première image en utilisant le modèle MiniMax Hailuo-02. Prend en charge plusieurs résolutions (768P/1080P) et durées (6/10s) avec optimisation intelligente des prompts.",
|
|
1941
2001
|
"mediaType": "image",
|
|
1942
2002
|
"mediaSubtype": "webp",
|
|
1943
|
-
"tags": ["Texte vers
|
|
2003
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
1944
2004
|
"models": ["MiniMax"],
|
|
1945
2005
|
"date": "2025-03-01",
|
|
1946
2006
|
"tutorialUrl": "",
|
|
@@ -1950,11 +2010,11 @@
|
|
|
1950
2010
|
},
|
|
1951
2011
|
{
|
|
1952
2012
|
"name": "api_hailuo_minimax_t2v",
|
|
1953
|
-
"title": "MiniMax:
|
|
2013
|
+
"title": "MiniMax: Texte vers Vidéo",
|
|
1954
2014
|
"description": "Generate high-quality videos directly from text prompts. Explore MiniMax's advanced AI capabilities to create diverse visual narratives with professional CGI effects and stylistic elements to bring your descriptions to life.",
|
|
1955
2015
|
"mediaType": "image",
|
|
1956
2016
|
"mediaSubtype": "webp",
|
|
1957
|
-
"tags": ["Texte vers
|
|
2017
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
1958
2018
|
"models": ["MiniMax"],
|
|
1959
2019
|
"date": "2025-03-01",
|
|
1960
2020
|
"tutorialUrl": "",
|
|
@@ -1964,11 +2024,11 @@
|
|
|
1964
2024
|
},
|
|
1965
2025
|
{
|
|
1966
2026
|
"name": "api_hailuo_minimax_i2v",
|
|
1967
|
-
"title": "MiniMax: Image
|
|
2027
|
+
"title": "MiniMax: Image vers Vidéo",
|
|
1968
2028
|
"description": "Generate refined videos from images and text with CGI integration using MiniMax.",
|
|
1969
2029
|
"mediaType": "image",
|
|
1970
2030
|
"mediaSubtype": "webp",
|
|
1971
|
-
"tags": ["Image vers
|
|
2031
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1972
2032
|
"models": ["MiniMax"],
|
|
1973
2033
|
"date": "2025-03-01",
|
|
1974
2034
|
"tutorialUrl": "",
|
|
@@ -1978,11 +2038,11 @@
|
|
|
1978
2038
|
},
|
|
1979
2039
|
{
|
|
1980
2040
|
"name": "api_pixverse_i2v",
|
|
1981
|
-
"title": "PixVerse: Image
|
|
2041
|
+
"title": "PixVerse: Image vers Vidéo",
|
|
1982
2042
|
"description": "Generate dynamic videos from static images with motion and effects using PixVerse.",
|
|
1983
2043
|
"mediaType": "image",
|
|
1984
2044
|
"mediaSubtype": "webp",
|
|
1985
|
-
"tags": ["Image vers
|
|
2045
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
1986
2046
|
"models": ["PixVerse"],
|
|
1987
2047
|
"date": "2025-03-01",
|
|
1988
2048
|
"tutorialUrl": "",
|
|
@@ -1992,11 +2052,11 @@
|
|
|
1992
2052
|
},
|
|
1993
2053
|
{
|
|
1994
2054
|
"name": "api_pixverse_template_i2v",
|
|
1995
|
-
"title": "PixVerse Templates: Image
|
|
2055
|
+
"title": "PixVerse Templates: Image vers Vidéo",
|
|
1996
2056
|
"description": "Generate dynamic videos from static images with motion and effects using PixVerse.",
|
|
1997
2057
|
"mediaType": "image",
|
|
1998
2058
|
"mediaSubtype": "webp",
|
|
1999
|
-
"tags": ["Image vers
|
|
2059
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2000
2060
|
"models": ["PixVerse"],
|
|
2001
2061
|
"date": "2025-03-01",
|
|
2002
2062
|
"tutorialUrl": "",
|
|
@@ -2006,11 +2066,11 @@
|
|
|
2006
2066
|
},
|
|
2007
2067
|
{
|
|
2008
2068
|
"name": "api_pixverse_t2v",
|
|
2009
|
-
"title": "PixVerse:
|
|
2069
|
+
"title": "PixVerse: Texte vers Vidéo",
|
|
2010
2070
|
"description": "Generate videos with accurate prompt interpretation and stunning video dynamics.",
|
|
2011
2071
|
"mediaType": "image",
|
|
2012
2072
|
"mediaSubtype": "webp",
|
|
2013
|
-
"tags": ["Texte vers
|
|
2073
|
+
"tags": ["Texte vers vidéo", "Vidéo", "API"],
|
|
2014
2074
|
"models": ["PixVerse"],
|
|
2015
2075
|
"date": "2025-03-01",
|
|
2016
2076
|
"tutorialUrl": "",
|
|
@@ -2020,11 +2080,11 @@
|
|
|
2020
2080
|
},
|
|
2021
2081
|
{
|
|
2022
2082
|
"name": "api_runway_gen3a_turbo_image_to_video",
|
|
2023
|
-
"title": "Runway: Gen3a Turbo Image
|
|
2083
|
+
"title": "Runway: Gen3a Turbo Image vers Vidéo",
|
|
2024
2084
|
"description": "Generate cinematic videos from static images using Runway Gen3a Turbo.",
|
|
2025
2085
|
"mediaType": "image",
|
|
2026
2086
|
"mediaSubtype": "webp",
|
|
2027
|
-
"tags": ["Image vers
|
|
2087
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2028
2088
|
"models": ["Runway"],
|
|
2029
2089
|
"date": "2025-03-01",
|
|
2030
2090
|
"tutorialUrl": "",
|
|
@@ -2034,11 +2094,11 @@
|
|
|
2034
2094
|
},
|
|
2035
2095
|
{
|
|
2036
2096
|
"name": "api_runway_gen4_turo_image_to_video",
|
|
2037
|
-
"title": "Runway: Gen4 Turbo Image
|
|
2097
|
+
"title": "Runway: Gen4 Turbo Image vers Vidéo",
|
|
2038
2098
|
"description": "Generate dynamic videos from images using Runway Gen4 Turbo.",
|
|
2039
2099
|
"mediaType": "image",
|
|
2040
2100
|
"mediaSubtype": "webp",
|
|
2041
|
-
"tags": ["Image vers
|
|
2101
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2042
2102
|
"models": ["Runway"],
|
|
2043
2103
|
"date": "2025-03-01",
|
|
2044
2104
|
"tutorialUrl": "",
|
|
@@ -2048,11 +2108,11 @@
|
|
|
2048
2108
|
},
|
|
2049
2109
|
{
|
|
2050
2110
|
"name": "api_runway_first_last_frame",
|
|
2051
|
-
"title": "Runway:
|
|
2111
|
+
"title": "Runway: Première-Dernière Image vers Vidéo",
|
|
2052
2112
|
"description": "Generate smooth video transitions between two keyframes with Runway's precision.",
|
|
2053
2113
|
"mediaType": "image",
|
|
2054
2114
|
"mediaSubtype": "webp",
|
|
2055
|
-
"tags": ["
|
|
2115
|
+
"tags": ["Vidéo", "API", "FLF2V"],
|
|
2056
2116
|
"models": ["Runway"],
|
|
2057
2117
|
"date": "2025-03-01",
|
|
2058
2118
|
"tutorialUrl": "",
|
|
@@ -2062,11 +2122,11 @@
|
|
|
2062
2122
|
},
|
|
2063
2123
|
{
|
|
2064
2124
|
"name": "api_pika_i2v",
|
|
2065
|
-
"title": "Pika: Image
|
|
2125
|
+
"title": "Pika: Image vers Vidéo",
|
|
2066
2126
|
"description": "Generate smooth animated videos from single static images using Pika AI.",
|
|
2067
2127
|
"mediaType": "image",
|
|
2068
2128
|
"mediaSubtype": "webp",
|
|
2069
|
-
"tags": ["Image vers
|
|
2129
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2070
2130
|
"models": ["Pika"],
|
|
2071
2131
|
"date": "2025-03-01",
|
|
2072
2132
|
"tutorialUrl": "",
|
|
@@ -2076,11 +2136,11 @@
|
|
|
2076
2136
|
},
|
|
2077
2137
|
{
|
|
2078
2138
|
"name": "api_pika_scene",
|
|
2079
|
-
"title": "Pika Scenes: Images
|
|
2139
|
+
"title": "Pika Scenes: Images vers Vidéo",
|
|
2080
2140
|
"description": "Generate videos that incorporate multiple input images using Pika Scenes.",
|
|
2081
2141
|
"mediaType": "image",
|
|
2082
2142
|
"mediaSubtype": "webp",
|
|
2083
|
-
"tags": ["Image vers
|
|
2143
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2084
2144
|
"models": ["Pika"],
|
|
2085
2145
|
"date": "2025-03-01",
|
|
2086
2146
|
"tutorialUrl": "",
|
|
@@ -2090,11 +2150,11 @@
|
|
|
2090
2150
|
},
|
|
2091
2151
|
{
|
|
2092
2152
|
"name": "api_veo2_i2v",
|
|
2093
|
-
"title": "Veo2: Image
|
|
2153
|
+
"title": "Veo2: Image vers Vidéo",
|
|
2094
2154
|
"description": "Generate videos from images using Google Veo2 API.",
|
|
2095
2155
|
"mediaType": "image",
|
|
2096
2156
|
"mediaSubtype": "webp",
|
|
2097
|
-
"tags": ["Image vers
|
|
2157
|
+
"tags": ["Image vers vidéo", "Vidéo", "API"],
|
|
2098
2158
|
"models": ["Veo", "Google"],
|
|
2099
2159
|
"date": "2025-03-01",
|
|
2100
2160
|
"tutorialUrl": "",
|
|
@@ -2104,11 +2164,11 @@
|
|
|
2104
2164
|
},
|
|
2105
2165
|
{
|
|
2106
2166
|
"name": "api_veo3",
|
|
2107
|
-
"title": "Veo3: Image
|
|
2167
|
+
"title": "Veo3: Image vers Vidéo",
|
|
2108
2168
|
"description": "Generate high-quality 8-second videos from text prompts or images using Google's advanced Veo 3 API. Features audio generation, prompt enhancement, and dual model options for speed or quality.",
|
|
2109
2169
|
"mediaType": "image",
|
|
2110
2170
|
"mediaSubtype": "webp",
|
|
2111
|
-
"tags": ["Image vers
|
|
2171
|
+
"tags": ["Image vers vidéo", "Texte vers vidéo", "API"],
|
|
2112
2172
|
"models": ["Veo", "Google"],
|
|
2113
2173
|
"date": "2025-03-01",
|
|
2114
2174
|
"tutorialUrl": "",
|
|
@@ -2123,15 +2183,15 @@
|
|
|
2123
2183
|
"type": "image",
|
|
2124
2184
|
"category": "CLOSED SOURCE MODELS",
|
|
2125
2185
|
"icon": "icon-[lucide--box]",
|
|
2126
|
-
"title": "API
|
|
2186
|
+
"title": "3D API",
|
|
2127
2187
|
"templates": [
|
|
2128
2188
|
{
|
|
2129
2189
|
"name": "api_rodin_gen2",
|
|
2130
|
-
"title": "Rodin: Gen-2 Image
|
|
2131
|
-
"description": "
|
|
2190
|
+
"title": "Rodin: Gen-2 Image vers Modèle",
|
|
2191
|
+
"description": "Générez des modèles 3D détaillés avec une qualité de maillage 4X à partir de photos avec Rodin Gen2",
|
|
2132
2192
|
"mediaType": "image",
|
|
2133
2193
|
"mediaSubtype": "webp",
|
|
2134
|
-
"tags": ["Image
|
|
2194
|
+
"tags": ["Image vers 3D", "3D", "API"],
|
|
2135
2195
|
"models": ["Rodin"],
|
|
2136
2196
|
"date": "2025-09-27",
|
|
2137
2197
|
"tutorialUrl": "",
|
|
@@ -2141,12 +2201,12 @@
|
|
|
2141
2201
|
},
|
|
2142
2202
|
{
|
|
2143
2203
|
"name": "api_rodin_image_to_model",
|
|
2144
|
-
"title": "Rodin: Image
|
|
2204
|
+
"title": "Rodin: Image vers Modèle",
|
|
2145
2205
|
"description": "Generate detailed 3D models from single photos using Rodin AI.",
|
|
2146
2206
|
"mediaType": "image",
|
|
2147
2207
|
"thumbnailVariant": "compareSlider",
|
|
2148
2208
|
"mediaSubtype": "webp",
|
|
2149
|
-
"tags": ["Image vers
|
|
2209
|
+
"tags": ["Image vers 3D", "3D", "API"],
|
|
2150
2210
|
"models": ["Rodin"],
|
|
2151
2211
|
"date": "2025-03-01",
|
|
2152
2212
|
"tutorialUrl": "",
|
|
@@ -2156,12 +2216,12 @@
|
|
|
2156
2216
|
},
|
|
2157
2217
|
{
|
|
2158
2218
|
"name": "api_rodin_multiview_to_model",
|
|
2159
|
-
"title": "Rodin:
|
|
2219
|
+
"title": "Rodin: Multivue vers Modèle",
|
|
2160
2220
|
"description": "Sculpt comprehensive 3D models using Rodin's multi-angle reconstruction.",
|
|
2161
2221
|
"mediaType": "image",
|
|
2162
2222
|
"thumbnailVariant": "compareSlider",
|
|
2163
2223
|
"mediaSubtype": "webp",
|
|
2164
|
-
"tags": ["
|
|
2224
|
+
"tags": ["Image vers 3D", "3D", "API"],
|
|
2165
2225
|
"models": ["Rodin"],
|
|
2166
2226
|
"date": "2025-03-01",
|
|
2167
2227
|
"tutorialUrl": "",
|
|
@@ -2171,11 +2231,11 @@
|
|
|
2171
2231
|
},
|
|
2172
2232
|
{
|
|
2173
2233
|
"name": "api_tripo_text_to_model",
|
|
2174
|
-
"title": "Tripo:
|
|
2234
|
+
"title": "Tripo: Texte vers Modèle",
|
|
2175
2235
|
"description": "Craft 3D objects from descriptions with Tripo's text-driven modeling.",
|
|
2176
2236
|
"mediaType": "image",
|
|
2177
2237
|
"mediaSubtype": "webp",
|
|
2178
|
-
"tags": ["Texte vers
|
|
2238
|
+
"tags": ["Texte vers modèle", "3D", "API"],
|
|
2179
2239
|
"models": ["Tripo"],
|
|
2180
2240
|
"date": "2025-03-01",
|
|
2181
2241
|
"tutorialUrl": "",
|
|
@@ -2185,12 +2245,12 @@
|
|
|
2185
2245
|
},
|
|
2186
2246
|
{
|
|
2187
2247
|
"name": "api_tripo_image_to_model",
|
|
2188
|
-
"title": "Tripo: Image
|
|
2248
|
+
"title": "Tripo: Image vers Modèle",
|
|
2189
2249
|
"description": "Generate professional 3D assets from 2D images using Tripo engine.",
|
|
2190
2250
|
"mediaType": "image",
|
|
2191
2251
|
"thumbnailVariant": "compareSlider",
|
|
2192
2252
|
"mediaSubtype": "webp",
|
|
2193
|
-
"tags": ["Image vers
|
|
2253
|
+
"tags": ["Image vers 3D", "3D", "API"],
|
|
2194
2254
|
"models": ["Tripo"],
|
|
2195
2255
|
"date": "2025-03-01",
|
|
2196
2256
|
"tutorialUrl": "",
|
|
@@ -2200,12 +2260,12 @@
|
|
|
2200
2260
|
},
|
|
2201
2261
|
{
|
|
2202
2262
|
"name": "api_tripo_multiview_to_model",
|
|
2203
|
-
"title": "Tripo:
|
|
2263
|
+
"title": "Tripo: Multivue vers Modèle",
|
|
2204
2264
|
"description": "Build 3D models from multiple angles with Tripo's advanced scanner.",
|
|
2205
2265
|
"mediaType": "image",
|
|
2206
2266
|
"thumbnailVariant": "compareSlider",
|
|
2207
2267
|
"mediaSubtype": "webp",
|
|
2208
|
-
"tags": ["
|
|
2268
|
+
"tags": ["Image vers 3D", "3D", "API"],
|
|
2209
2269
|
"models": ["Tripo"],
|
|
2210
2270
|
"date": "2025-03-01",
|
|
2211
2271
|
"tutorialUrl": "",
|
|
@@ -2220,7 +2280,7 @@
|
|
|
2220
2280
|
"type": "audio",
|
|
2221
2281
|
"category": "CLOSED SOURCE MODELS",
|
|
2222
2282
|
"icon": "icon-[lucide--volume-2]",
|
|
2223
|
-
"title": "API
|
|
2283
|
+
"title": "Audio API",
|
|
2224
2284
|
"templates": [
|
|
2225
2285
|
{
|
|
2226
2286
|
"name": "api_stability_ai_text_to_audio",
|
|
@@ -2228,7 +2288,7 @@
|
|
|
2228
2288
|
"description": "Générez de la musique à partir de texte avec Stable Audio 2.5. Créez des pistes de plusieurs minutes en quelques secondes.",
|
|
2229
2289
|
"mediaType": "audio",
|
|
2230
2290
|
"mediaSubtype": "mp3",
|
|
2231
|
-
"tags": ["Texte vers
|
|
2291
|
+
"tags": ["Texte vers audio", "Audio", "API"],
|
|
2232
2292
|
"date": "2025-09-09",
|
|
2233
2293
|
"models": ["Stability", "Stable Audio"],
|
|
2234
2294
|
"OpenSource": false,
|
|
@@ -2241,7 +2301,7 @@
|
|
|
2241
2301
|
"description": "Transformez de l'audio en de nouvelles compositions avec Stable Audio 2.5. Téléversez un audio et l'IA crée des pistes complètes.",
|
|
2242
2302
|
"mediaType": "audio",
|
|
2243
2303
|
"mediaSubtype": "mp3",
|
|
2244
|
-
"tags": ["Audio vers
|
|
2304
|
+
"tags": ["Audio vers audio", "Audio", "API"],
|
|
2245
2305
|
"date": "2025-09-09",
|
|
2246
2306
|
"models": ["Stability", "Stable Audio"],
|
|
2247
2307
|
"OpenSource": false,
|
|
@@ -2254,7 +2314,7 @@
|
|
|
2254
2314
|
"description": "Complétez ou prolongez des pistes audio avec Stable Audio 2.5. Téléversez un audio et l'IA génère le reste.",
|
|
2255
2315
|
"mediaType": "audio",
|
|
2256
2316
|
"mediaSubtype": "mp3",
|
|
2257
|
-
"tags": ["Audio vers
|
|
2317
|
+
"tags": ["Audio vers audio", "Audio", "API"],
|
|
2258
2318
|
"date": "2025-09-09",
|
|
2259
2319
|
"models": ["Stability", "Stable Audio"],
|
|
2260
2320
|
"OpenSource": false,
|
|
@@ -2268,15 +2328,15 @@
|
|
|
2268
2328
|
"type": "image",
|
|
2269
2329
|
"category": "CLOSED SOURCE MODELS",
|
|
2270
2330
|
"icon": "icon-[lucide--message-square-text]",
|
|
2271
|
-
"title": "API
|
|
2331
|
+
"title": "LLM API",
|
|
2272
2332
|
"templates": [
|
|
2273
2333
|
{
|
|
2274
2334
|
"name": "api_openai_chat",
|
|
2275
2335
|
"title": "OpenAI: Chat",
|
|
2276
|
-
"description": "
|
|
2336
|
+
"description": "Interagissez avec les modèles de langage avancés d'OpenAI pour des conversations intelligentes.",
|
|
2277
2337
|
"mediaType": "image",
|
|
2278
2338
|
"mediaSubtype": "webp",
|
|
2279
|
-
"tags": ["
|
|
2339
|
+
"tags": ["LLM", "API"],
|
|
2280
2340
|
"models": ["OpenAI"],
|
|
2281
2341
|
"date": "2025-03-01",
|
|
2282
2342
|
"tutorialUrl": "",
|
|
@@ -2287,10 +2347,10 @@
|
|
|
2287
2347
|
{
|
|
2288
2348
|
"name": "api_google_gemini",
|
|
2289
2349
|
"title": "Google Gemini: Chat",
|
|
2290
|
-
"description": "
|
|
2350
|
+
"description": "Découvrez l'IA multimodale de Google avec les capacités de raisonnement de Gemini.",
|
|
2291
2351
|
"mediaType": "image",
|
|
2292
2352
|
"mediaSubtype": "webp",
|
|
2293
|
-
"tags": ["
|
|
2353
|
+
"tags": ["LLM", "API"],
|
|
2294
2354
|
"models": ["Google Gemini", "Google"],
|
|
2295
2355
|
"date": "2025-03-01",
|
|
2296
2356
|
"tutorialUrl": "",
|