comfyui-workflow-templates 0.1.95__py3-none-any.whl → 0.1.97__py3-none-any.whl

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of comfyui-workflow-templates might be problematic. Click here for more details.

Files changed (151) hide show
  1. comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed-1.webp +0 -0
  2. comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed.json +1288 -0
  3. comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed-1.webp +0 -0
  4. comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed.json +1754 -0
  5. comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed-1.webp +0 -0
  6. comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed.json +1416 -0
  7. comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed-1.webp +0 -0
  8. comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed.json +850 -0
  9. comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed-1.webp +0 -0
  10. comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed.json +1014 -0
  11. comfyui_workflow_templates/templates/2_pass_pose_worship.json +551 -139
  12. comfyui_workflow_templates/templates/3d_hunyuan3d-v2.1.json +8 -8
  13. comfyui_workflow_templates/templates/3d_hunyuan3d_image_to_model.json +176 -284
  14. comfyui_workflow_templates/templates/3d_hunyuan3d_multiview_to_model.json +131 -133
  15. comfyui_workflow_templates/templates/3d_hunyuan3d_multiview_to_model_turbo.json +84 -86
  16. comfyui_workflow_templates/templates/ByteDance-Seedance_00003_.json +210 -0
  17. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_max_image.json +73 -14
  18. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_multiple_images_input.json +86 -23
  19. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_pro_image.json +145 -86
  20. comfyui_workflow_templates/templates/api_bfl_flux_pro_t2i.json +78 -78
  21. comfyui_workflow_templates/templates/api_bytedance_flf2v.json +86 -86
  22. comfyui_workflow_templates/templates/api_bytedance_image_to_video.json +36 -36
  23. comfyui_workflow_templates/templates/api_bytedance_seedream4.json +227 -222
  24. comfyui_workflow_templates/templates/api_google_gemini_image.json +113 -47
  25. comfyui_workflow_templates/templates/api_hailuo_minimax_i2v.json +52 -42
  26. comfyui_workflow_templates/templates/api_hailuo_minimax_video.json +10 -4
  27. comfyui_workflow_templates/templates/api_ideogram_v3_t2i.json +50 -48
  28. comfyui_workflow_templates/templates/api_kling_effects.json +34 -9
  29. comfyui_workflow_templates/templates/api_kling_flf.json +68 -39
  30. comfyui_workflow_templates/templates/api_kling_i2v.json +35 -9
  31. comfyui_workflow_templates/templates/api_luma_i2v.json +124 -110
  32. comfyui_workflow_templates/templates/api_luma_photon_i2i.json +64 -25
  33. comfyui_workflow_templates/templates/api_luma_photon_style_ref.json +210 -60
  34. comfyui_workflow_templates/templates/api_moonvalley_image_to_video.json +40 -41
  35. comfyui_workflow_templates/templates/api_moonvalley_video_to_video_motion_transfer.json +10 -11
  36. comfyui_workflow_templates/templates/api_moonvalley_video_to_video_pose_control.json +36 -37
  37. comfyui_workflow_templates/templates/api_openai_dall_e_2_inpaint.json +47 -11
  38. comfyui_workflow_templates/templates/api_openai_image_1_i2i.json +37 -8
  39. comfyui_workflow_templates/templates/api_openai_image_1_inpaint.json +29 -29
  40. comfyui_workflow_templates/templates/api_openai_image_1_multi_inputs.json +56 -13
  41. comfyui_workflow_templates/templates/api_openai_image_1_t2i.json +28 -28
  42. comfyui_workflow_templates/templates/api_openai_sora_video.json +203 -162
  43. comfyui_workflow_templates/templates/api_pika_i2v.json +29 -29
  44. comfyui_workflow_templates/templates/api_pika_scene.json +9 -9
  45. comfyui_workflow_templates/templates/api_pixverse_i2v.json +58 -58
  46. comfyui_workflow_templates/templates/api_pixverse_template_i2v.json +4 -4
  47. comfyui_workflow_templates/templates/api_recraft_image_gen_with_color_control.json +168 -73
  48. comfyui_workflow_templates/templates/api_rodin_gen2.json +156 -152
  49. comfyui_workflow_templates/templates/api_rodin_image_to_model.json +287 -247
  50. comfyui_workflow_templates/templates/api_rodin_multiview_to_model.json +7 -7
  51. comfyui_workflow_templates/templates/api_runway_first_last_frame.json +44 -44
  52. comfyui_workflow_templates/templates/api_runway_gen3a_turbo_image_to_video.json +29 -29
  53. comfyui_workflow_templates/templates/api_runway_gen4_turo_image_to_video.json +40 -40
  54. comfyui_workflow_templates/templates/api_runway_reference_to_image.json +84 -45
  55. comfyui_workflow_templates/templates/api_runway_text_to_image.json +40 -40
  56. comfyui_workflow_templates/templates/api_stability_ai_audio_inpaint.json +59 -83
  57. comfyui_workflow_templates/templates/api_stability_ai_audio_to_audio.json +43 -46
  58. comfyui_workflow_templates/templates/api_stability_ai_i2i.json +39 -14
  59. comfyui_workflow_templates/templates/api_stability_ai_sd3.5_i2i.json +54 -8
  60. comfyui_workflow_templates/templates/api_stability_ai_sd3.5_t2i.json +44 -44
  61. comfyui_workflow_templates/templates/api_stability_ai_stable_image_ultra_t2i.json +28 -28
  62. comfyui_workflow_templates/templates/api_tripo_image_to_model.json +4 -4
  63. comfyui_workflow_templates/templates/api_tripo_multiview_to_model.json +89 -89
  64. comfyui_workflow_templates/templates/api_veo2_i2v.json +3 -3
  65. comfyui_workflow_templates/templates/api_veo3.json +90 -84
  66. comfyui_workflow_templates/templates/api_vidu_image_to_video.json +37 -9
  67. comfyui_workflow_templates/templates/api_vidu_reference_to_video.json +86 -19
  68. comfyui_workflow_templates/templates/api_vidu_start_end_to_video.json +14 -6
  69. comfyui_workflow_templates/templates/api_wan_image_to_video.json +73 -73
  70. comfyui_workflow_templates/templates/audio_ace_step_1_m2m_editing.json +152 -329
  71. comfyui_workflow_templates/templates/audio_ace_step_1_t2a_instrumentals.json +207 -398
  72. comfyui_workflow_templates/templates/audio_ace_step_1_t2a_song.json +167 -378
  73. comfyui_workflow_templates/templates/audio_stable_audio_example.json +156 -118
  74. comfyui_workflow_templates/templates/controlnet_example.json +110 -122
  75. comfyui_workflow_templates/templates/default.json +329 -139
  76. comfyui_workflow_templates/templates/depth_controlnet.json +463 -206
  77. comfyui_workflow_templates/templates/depth_t2i_adapter.json +1522 -236
  78. comfyui_workflow_templates/templates/flux1_dev_uso_reference_image_gen.json +383 -354
  79. comfyui_workflow_templates/templates/flux_canny_model_example.json +576 -268
  80. comfyui_workflow_templates/templates/flux_depth_lora_example.json +1234 -213
  81. comfyui_workflow_templates/templates/flux_fill_inpaint_example.json +553 -250
  82. comfyui_workflow_templates/templates/flux_fill_outpaint_example.json +556 -228
  83. comfyui_workflow_templates/templates/flux_kontext_dev_basic.json +104 -109
  84. comfyui_workflow_templates/templates/flux_redux_model_example-1.webp +0 -0
  85. comfyui_workflow_templates/templates/flux_redux_model_example.json +609 -557
  86. comfyui_workflow_templates/templates/hidream_e1_1.json +5 -5
  87. comfyui_workflow_templates/templates/hidream_e1_full.json +5 -5
  88. comfyui_workflow_templates/templates/image2image-1.webp +0 -0
  89. comfyui_workflow_templates/templates/image2image-2.webp +0 -0
  90. comfyui_workflow_templates/templates/image2image.json +203 -201
  91. comfyui_workflow_templates/templates/image_flux.1_fill_dev_OneReward.json +178 -162
  92. comfyui_workflow_templates/templates/image_lotus_depth_v1_1.json +4 -4
  93. comfyui_workflow_templates/templates/image_omnigen2_image_edit.json +347 -341
  94. comfyui_workflow_templates/templates/image_qwen_image_controlnet_patch.json +71 -70
  95. comfyui_workflow_templates/templates/image_qwen_image_edit.json +199 -199
  96. comfyui_workflow_templates/templates/image_qwen_image_edit_2509.json +401 -401
  97. comfyui_workflow_templates/templates/image_qwen_image_instantx_controlnet.json +72 -71
  98. comfyui_workflow_templates/templates/image_qwen_image_instantx_inpainting_controlnet.json +1675 -850
  99. comfyui_workflow_templates/templates/image_qwen_image_union_control_lora.json +190 -189
  100. comfyui_workflow_templates/templates/image_to_video.json +64 -64
  101. comfyui_workflow_templates/templates/image_to_video_wan.json +163 -140
  102. comfyui_workflow_templates/templates/index.ar.json +2357 -0
  103. comfyui_workflow_templates/templates/index.es.json +182 -145
  104. comfyui_workflow_templates/templates/index.fr.json +348 -311
  105. comfyui_workflow_templates/templates/index.ja.json +229 -192
  106. comfyui_workflow_templates/templates/index.json +63 -26
  107. comfyui_workflow_templates/templates/index.ko.json +183 -146
  108. comfyui_workflow_templates/templates/index.ru.json +222 -185
  109. comfyui_workflow_templates/templates/index.tr.json +2357 -0
  110. comfyui_workflow_templates/templates/index.tr_translated.json +2357 -0
  111. comfyui_workflow_templates/templates/index.zh-TW.json +278 -241
  112. comfyui_workflow_templates/templates/index.zh.json +235 -198
  113. comfyui_workflow_templates/templates/inpaint_example.json +22 -19
  114. comfyui_workflow_templates/templates/inpaint_model_outpainting.json +23 -20
  115. comfyui_workflow_templates/templates/ltxv_image_to_video-1.webp +0 -0
  116. comfyui_workflow_templates/templates/ltxv_image_to_video.json +367 -337
  117. comfyui_workflow_templates/templates/mixing_controlnets.json +422 -373
  118. comfyui_workflow_templates/templates/sd3.5_large_blur.json +14 -14
  119. comfyui_workflow_templates/templates/sd3.5_large_canny_controlnet_example.json +615 -258
  120. comfyui_workflow_templates/templates/sd3.5_large_depth.json +1317 -210
  121. comfyui_workflow_templates/templates/sdxl_revision_text_prompts.json +619 -256
  122. comfyui_workflow_templates/templates/video_humo.json +194 -194
  123. comfyui_workflow_templates/templates/video_wan2.1_fun_camera_v1.1_1.3B.json +30 -30
  124. comfyui_workflow_templates/templates/video_wan2.1_fun_camera_v1.1_14B.json +97 -152
  125. comfyui_workflow_templates/templates/video_wan2_2_14B_animate.json +5 -5
  126. comfyui_workflow_templates/templates/video_wan2_2_14B_flf2v.json +121 -121
  127. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_camera.json +67 -67
  128. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_control.json +380 -358
  129. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_inpaint.json +111 -111
  130. comfyui_workflow_templates/templates/video_wan2_2_14B_i2v.json +58 -58
  131. comfyui_workflow_templates/templates/video_wan2_2_14B_s2v.json +216 -216
  132. comfyui_workflow_templates/templates/video_wan2_2_5B_fun_control.json +222 -202
  133. comfyui_workflow_templates/templates/video_wan2_2_5B_fun_inpaint.json +27 -27
  134. comfyui_workflow_templates/templates/video_wan_ati.json +5 -5
  135. comfyui_workflow_templates/templates/video_wan_vace_14B_ref2v.json +100 -100
  136. comfyui_workflow_templates/templates/video_wan_vace_14B_v2v.json +87 -105
  137. comfyui_workflow_templates/templates/video_wan_vace_flf2v.json +149 -149
  138. comfyui_workflow_templates/templates/video_wan_vace_inpainting.json +235 -243
  139. comfyui_workflow_templates/templates/video_wan_vace_outpainting.json +67 -124
  140. comfyui_workflow_templates/templates/wan2.1_flf2v_720_f16.json +32 -32
  141. comfyui_workflow_templates/templates/wan2.1_fun_control.json +183 -138
  142. comfyui_workflow_templates/templates/wan2.1_fun_inp.json +62 -62
  143. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/METADATA +1 -1
  144. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/RECORD +147 -136
  145. comfyui_workflow_templates/templates/sdxl_revision_zero_positive-1.webp +0 -0
  146. comfyui_workflow_templates/templates/sdxl_revision_zero_positive.json +0 -496
  147. comfyui_workflow_templates/templates/stable_zero123_example-1.webp +0 -0
  148. comfyui_workflow_templates/templates/stable_zero123_example.json +0 -273
  149. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/WHEEL +0 -0
  150. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/licenses/LICENSE +0 -0
  151. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/top_level.txt +0 -0
@@ -3,8 +3,68 @@
3
3
  "moduleName": "default",
4
4
  "type": "image",
5
5
  "isEssential": true,
6
- "title": "Bases",
6
+ "title": "Getting Started",
7
7
  "templates": [
8
+ {
9
+ "name": "01_qwen_t2i_subgraphed",
10
+ "title": "Qwen-Image Text to Image",
11
+ "mediaType": "image",
12
+ "mediaSubtype": "webp",
13
+ "description": "Generate images with exceptional multilingual text rendering and editing capabilities using Qwen-Image's 20B MMDiT model..",
14
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
15
+ "tags": ["Texte vers image", "Image"],
16
+ "models": ["Qwen-Image"],
17
+ "date": "2025-10-17",
18
+ "size": 29.59
19
+ },
20
+ {
21
+ "name": "02_qwen_Image_edit_subgraphed",
22
+ "title": "Qwen Image Edit 2509",
23
+ "mediaType": "image",
24
+ "mediaSubtype": "webp",
25
+ "description": "Advanced image editing with multi-image support, improved consistency, and ControlNet integration.",
26
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
27
+ "tags": ["Image vers image", "Édition d'image", "ControlNet"],
28
+ "models": ["Qwen-Image"],
29
+ "date": "2025-10-17",
30
+ "size": 29.59
31
+ },
32
+ {
33
+ "name": "03_video_wan2_2_14B_i2v_subgraphed",
34
+ "title": "Wan 2.2 14B Image to Video",
35
+ "description": "Transform static images into dynamic videos with precise motion control and style preservation using Wan 2.2.",
36
+ "mediaType": "image",
37
+ "mediaSubtype": "webp",
38
+ "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
39
+ "tags": ["Image vers vidéo", "Vidéo"],
40
+ "models": ["Wan2.2", "Wan"],
41
+ "date": "2025-10-17",
42
+ "size": 35.42
43
+ },
44
+ {
45
+ "name": "04_hunyuan_3d_2.1_subgraphed",
46
+ "title": "Hunyuan3D 2.1: image to 3D",
47
+ "mediaType": "image",
48
+ "mediaSubtype": "webp",
49
+ "description": "Generate 3D models from single images using Hunyuan3D 2.0.",
50
+ "tags": ["Image vers 3D", "3D"],
51
+ "models": ["Hunyuan3D"],
52
+ "date": "2025-10-17",
53
+ "tutorialUrl": "https://docs.comfy.org/tutorials/3d/hunyuan3D-2",
54
+ "size": 4.59
55
+ },
56
+ {
57
+ "name": "05_audio_ace_step_1_t2a_song_subgraphed",
58
+ "title": "ACE Step v1 Text to Song",
59
+ "mediaType": "image",
60
+ "mediaSubtype": "webp",
61
+ "description": "Generate songs with vocals from text prompts using ACE-Step v1, supporting multilingual and style customization.",
62
+ "tags": ["Texte vers audio", "Audio"],
63
+ "models": ["ACE-Step"],
64
+ "date": "2025-10-17",
65
+ "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
66
+ "size": 7.17
67
+ },
8
68
  {
9
69
  "name": "default",
10
70
  "title": "Génération d'images",
@@ -12,7 +72,7 @@
12
72
  "mediaSubtype": "webp",
13
73
  "description": "Générer des images à partir de prompts textuels.",
14
74
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/text-to-image",
15
- "tags": ["Texte vers Image", "Image"],
75
+ "tags": ["Texte vers image", "Image"],
16
76
  "models": ["SD1.5", "Stability"],
17
77
  "date": "2025-03-01",
18
78
  "size": 1.99,
@@ -25,11 +85,12 @@
25
85
  "mediaSubtype": "webp",
26
86
  "description": "Transformer des images existantes en utilisant des prompts textuels.",
27
87
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/image-to-image",
28
- "tags": ["Image vers Image", "Image"],
88
+ "tags": ["Image vers image", "Image"],
29
89
  "models": ["SD1.5", "Stability"],
30
90
  "date": "2025-03-01",
31
91
  "size": 1.99,
32
- "vram": 2.88
92
+ "vram": 2.88,
93
+ "thumbnailVariant": "hoverDissolve"
33
94
  },
34
95
  {
35
96
  "name": "lora",
@@ -38,7 +99,7 @@
38
99
  "mediaSubtype": "webp",
39
100
  "description": "Générer des images avec des modèles LoRA pour des styles ou sujets spécialisés.",
40
101
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
41
- "tags": ["Texte vers Image", "Image"],
102
+ "tags": ["Texte vers image", "Image"],
42
103
  "models": ["SD1.5", "Stability"],
43
104
  "date": "2025-03-01",
44
105
  "size": 2.27,
@@ -51,7 +112,7 @@
51
112
  "mediaSubtype": "webp",
52
113
  "description": "Générer des images en combinant plusieurs modèles LoRA.",
53
114
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
54
- "tags": ["Texte vers Image", "Image", "LoRA"],
115
+ "tags": ["Texte vers image", "Image"],
55
116
  "models": ["SD1.5", "Stability"],
56
117
  "date": "2025-03-01",
57
118
  "size": 2.27,
@@ -87,12 +148,12 @@
87
148
  },
88
149
  {
89
150
  "name": "embedding_example",
90
- "title": "Embedding",
151
+ "title": "Intégration",
91
152
  "mediaType": "image",
92
153
  "mediaSubtype": "webp",
93
154
  "description": "Générer des images en utilisant l'inversion textuelle pour des styles cohérents.",
94
155
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/",
95
- "tags": ["Embedding", "Image"],
156
+ "tags": ["Texte vers image", "Image"],
96
157
  "models": ["SD1.5", "Stability"],
97
158
  "date": "2025-03-01",
98
159
  "size": 4.86,
@@ -100,12 +161,12 @@
100
161
  },
101
162
  {
102
163
  "name": "gligen_textbox_example",
103
- "title": "Gligen Textbox",
164
+ "title": "Boîte de Texte Gligen",
104
165
  "mediaType": "image",
105
166
  "mediaSubtype": "webp",
106
167
  "description": "Générer des images avec un placement précis d'objets en utilisant des boîtes de texte.",
107
168
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/gligen/",
108
- "tags": ["Gligen", "Image"],
169
+ "tags": ["Image"],
109
170
  "models": ["SD1.5", "Stability"],
110
171
  "date": "2025-03-01",
111
172
  "size": 2.77,
@@ -117,7 +178,7 @@
117
178
  "mediaType": "image",
118
179
  "mediaSubtype": "webp",
119
180
  "description": "Générer des images en contrôlant la composition avec des zones définies.",
120
- "tags": ["Composition de Zone", "Image"],
181
+ "tags": ["Texte vers image", "Image"],
121
182
  "models": ["SD1.5", "Stability"],
122
183
  "date": "2025-03-01",
123
184
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/",
@@ -126,11 +187,11 @@
126
187
  },
127
188
  {
128
189
  "name": "area_composition_square_area_for_subject",
129
- "title": "Area Composition Square Area for Subject",
190
+ "title": "Composition Zone Carrée pour Sujet",
130
191
  "mediaType": "image",
131
192
  "mediaSubtype": "webp",
132
193
  "description": "Générer des images avec un placement cohérent du sujet en utilisant la composition de zone.",
133
- "tags": ["Composition de Zone", "Image"],
194
+ "tags": ["Texte vers image", "Image"],
134
195
  "models": ["SD1.5", "Stability"],
135
196
  "date": "2025-03-01",
136
197
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/#increasing-consistency-of-images-with-area-composition",
@@ -144,7 +205,7 @@
144
205
  "mediaSubtype": "webp",
145
206
  "description": "Agrandir les images en améliorant la qualité dans l'espace latent.",
146
207
  "thumbnailVariant": "compareSlider",
147
- "tags": ["Agrandissement", "Image"],
208
+ "tags": ["Amélioration", "Image"],
148
209
  "models": ["SD1.5", "Stability"],
149
210
  "date": "2025-03-01",
150
211
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/",
@@ -158,7 +219,7 @@
158
219
  "mediaSubtype": "webp",
159
220
  "description": "Agrandir les images en utilisant les modèles ESRGAN pour améliorer la qualité.",
160
221
  "thumbnailVariant": "compareSlider",
161
- "tags": ["Agrandissement", "Image"],
222
+ "tags": ["Amélioration", "Image"],
162
223
  "models": ["SD1.5", "Stability"],
163
224
  "date": "2025-03-01",
164
225
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/upscale_models/",
@@ -167,12 +228,12 @@
167
228
  },
168
229
  {
169
230
  "name": "hiresfix_esrgan_workflow",
170
- "title": "HiresFix ESRGAN Workflow",
231
+ "title": "Workflow HiresFix ESRGAN",
171
232
  "mediaType": "image",
172
233
  "mediaSubtype": "webp",
173
234
  "description": "Agrandir les images en utilisant les modèles ESRGAN pendant les étapes de génération intermédiaires.",
174
235
  "thumbnailVariant": "compareSlider",
175
- "tags": ["Agrandissement", "Image"],
236
+ "tags": ["Amélioration", "Image"],
176
237
  "models": ["SD1.5", "Stability"],
177
238
  "date": "2025-03-01",
178
239
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#non-latent-upscaling",
@@ -181,12 +242,12 @@
181
242
  },
182
243
  {
183
244
  "name": "latent_upscale_different_prompt_model",
184
- "title": "Latent Upscale Different Prompt Model",
245
+ "title": "Modèle Upscale Latent avec Prompt Différent",
185
246
  "mediaType": "image",
186
247
  "mediaSubtype": "webp",
187
248
  "description": "Agrandir les images tout en changeant les prompts à travers les passes de génération.",
188
249
  "thumbnailVariant": "zoomHover",
189
- "tags": ["Agrandissement", "Image"],
250
+ "tags": ["Amélioration", "Image"],
190
251
  "models": ["SD1.5", "Stability"],
191
252
  "date": "2025-03-01",
192
253
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/#more-examples",
@@ -209,7 +270,7 @@
209
270
  },
210
271
  {
211
272
  "name": "2_pass_pose_worship",
212
- "title": "Pose ControlNet 2 Pass",
273
+ "title": "Pose ControlNet 2 Passes",
213
274
  "mediaType": "image",
214
275
  "mediaSubtype": "webp",
215
276
  "description": "Générer des images guidées par des références de pose en utilisant ControlNet.",
@@ -223,12 +284,12 @@
223
284
  },
224
285
  {
225
286
  "name": "depth_controlnet",
226
- "title": "Depth ControlNet",
287
+ "title": "Profondeur ControlNet",
227
288
  "mediaType": "image",
228
289
  "mediaSubtype": "webp",
229
290
  "description": "Générer des images guidées par les informations de profondeur en utilisant ControlNet.",
230
291
  "thumbnailVariant": "hoverDissolve",
231
- "tags": ["ControlNet", "Image"],
292
+ "tags": ["ControlNet", "Image", "Texte vers image"],
232
293
  "models": ["SD1.5", "Stability"],
233
294
  "date": "2025-03-01",
234
295
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
@@ -237,12 +298,12 @@
237
298
  },
238
299
  {
239
300
  "name": "depth_t2i_adapter",
240
- "title": "Depth T2I Adapter",
301
+ "title": "Adaptateur T2I Profondeur",
241
302
  "mediaType": "image",
242
303
  "mediaSubtype": "webp",
243
304
  "description": "Générer des images guidées par les informations de profondeur en utilisant l'adaptateur T2I.",
244
305
  "thumbnailVariant": "hoverDissolve",
245
- "tags": ["Adaptateur T2I", "Image"],
306
+ "tags": ["ControlNet", "Image", "Texte vers image"],
246
307
  "models": ["SD1.5", "Stability"],
247
308
  "date": "2025-03-01",
248
309
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
@@ -251,12 +312,12 @@
251
312
  },
252
313
  {
253
314
  "name": "mixing_controlnets",
254
- "title": "Mixing ControlNets",
315
+ "title": "Mélange ControlNets",
255
316
  "mediaType": "image",
256
317
  "mediaSubtype": "webp",
257
318
  "description": "Générer des images en combinant plusieurs modèles ControlNet.",
258
319
  "thumbnailVariant": "hoverDissolve",
259
- "tags": ["ControlNet", "Image"],
320
+ "tags": ["ControlNet", "Image", "Texte vers image"],
260
321
  "models": ["SD1.5", "Stability"],
261
322
  "date": "2025-03-01",
262
323
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#mixing-controlnets",
@@ -279,7 +340,7 @@
279
340
  "mediaSubtype": "webp",
280
341
  "description": "Générer des images avec des capacités exceptionnelles de rendu et d'édition de texte multilingue en utilisant le modèle MMDiT 20B de Qwen-Image.",
281
342
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
282
- "tags": ["Texte vers Image", "Image"],
343
+ "tags": ["Texte vers image", "Image"],
283
344
  "models": ["Qwen-Image"],
284
345
  "date": "2025-08-05",
285
346
  "size": 29.59
@@ -290,7 +351,7 @@
290
351
  "mediaType": "image",
291
352
  "mediaSubtype": "webp",
292
353
  "description": "Générer des images avec Qwen-Image InstantX ControlNet, prenant en charge canny, contours doux, profondeur, pose",
293
- "tags": ["Image vers Image", "Image", "ControlNet"],
354
+ "tags": ["Image vers image", "Image", "ControlNet"],
294
355
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
295
356
  "models": ["Qwen-Image"],
296
357
  "date": "2025-08-23",
@@ -298,12 +359,12 @@
298
359
  },
299
360
  {
300
361
  "name": "image_qwen_image_instantx_inpainting_controlnet",
301
- "title": "Qwen-Image InstantX Inpainting ControlNet",
362
+ "title": "Qwen-Image InstantX ControlNet Inpainting",
302
363
  "mediaType": "image",
303
364
  "mediaSubtype": "webp",
304
365
  "thumbnailVariant": "compareSlider",
305
- "description": "Professional inpainting and image editing with Qwen-Image InstantX ControlNet. Supports object replacement, text modification, background changes, and outpainting.",
306
- "tags": ["Image to Image", "Image", "ControlNet", "Inpainting"],
366
+ "description": "Inpainting professionnel et édition d'images avec Qwen-Image InstantX ControlNet. Prend en charge le remplacement d'objets, la modification de texte, les changements d'arrière-plan et l'outpainting.",
367
+ "tags": ["Image vers image", "Image", "ControlNet", "Inpainting"],
307
368
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
308
369
  "models": ["Qwen-Image"],
309
370
  "date": "2025-09-12",
@@ -311,11 +372,11 @@
311
372
  },
312
373
  {
313
374
  "name": "image_qwen_image_union_control_lora",
314
- "title": "Qwen-Image Union Control",
375
+ "title": "Qwen-Image Contrôle Unifié",
315
376
  "mediaType": "image",
316
377
  "mediaSubtype": "webp",
317
378
  "description": "Générer des images avec un contrôle structurel précis en utilisant le LoRA ControlNet unifié de Qwen-Image. Prend en charge plusieurs types de contrôle incluant canny, depth, lineart, softedge, normal et openpose pour diverses applications créatives.",
318
- "tags": ["Texte vers Image", "Image", "ControlNet"],
379
+ "tags": ["Texte vers image", "Image", "ControlNet"],
319
380
  "models": ["Qwen-Image"],
320
381
  "date": "2025-08-23",
321
382
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
@@ -327,7 +388,7 @@
327
388
  "mediaType": "image",
328
389
  "mediaSubtype": "webp",
329
390
  "description": "Contrôler la génération d'images en utilisant les modèles ControlNet de Qwen-Image. Prend en charge les contrôles canny, depth et inpainting via le patching de modèles.",
330
- "tags": ["Texte vers Image", "Image", "ControlNet"],
391
+ "tags": ["Texte vers image", "Image", "ControlNet"],
331
392
  "models": ["Qwen-Image"],
332
393
  "date": "2025-08-24",
333
394
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
@@ -336,13 +397,13 @@
336
397
  },
337
398
  {
338
399
  "name": "image_qwen_image_edit_2509",
339
- "title": "Qwen Image Edit 2509",
400
+ "title": "Qwen Édition d'Image 2509",
340
401
  "mediaType": "image",
341
402
  "mediaSubtype": "webp",
342
403
  "thumbnailVariant": "compareSlider",
343
- "description": "Advanced image editing with multi-image support, improved consistency, and ControlNet integration.",
404
+ "description": "Édition d'images avancée avec support multi-images, cohérence améliorée et intégration ControlNet.",
344
405
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
345
- "tags": ["Image to Image", "Image Edit", "Multi-Image", "ControlNet"],
406
+ "tags": ["Image vers image", "Édition d'image", "ControlNet"],
346
407
  "models": ["Qwen-Image"],
347
408
  "date": "2025-09-25",
348
409
  "size": 29.59
@@ -355,7 +416,7 @@
355
416
  "thumbnailVariant": "compareSlider",
356
417
  "description": "Éditer des images avec une édition de texte bilingue précise et des capacités d'édition sémantique/apparence duales en utilisant le modèle MMDiT 20B de Qwen-Image-Edit.",
357
418
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
358
- "tags": ["Image vers Image", "Édition d'Image"],
419
+ "tags": ["Image vers image", "Édition d'image"],
359
420
  "models": ["Qwen-Image"],
360
421
  "date": "2025-08-18",
361
422
  "size": 29.59
@@ -368,7 +429,7 @@
368
429
  "thumbnailVariant": "hoverDissolve",
369
430
  "description": "Éditer une image en utilisant Flux Kontext avec une visibilité complète des nœuds, parfait pour apprendre le flux de travail.",
370
431
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev",
371
- "tags": ["Édition d'Image", "Image vers Image"],
432
+ "tags": ["Édition d'image", "Image vers image"],
372
433
  "models": ["Flux"],
373
434
  "date": "2025-06-26",
374
435
  "size": 16.43,
@@ -376,11 +437,11 @@
376
437
  },
377
438
  {
378
439
  "name": "image_chroma1_radiance_text_to_image",
379
- "title": "Chroma1 Radiance text to image",
440
+ "title": "Chroma1 Radiance Texte vers Image",
380
441
  "mediaType": "image",
381
442
  "mediaSubtype": "webp",
382
- "description": "Chroma1-Radiance works directly with image pixels instead of compressed latents, delivering higher quality images with reduced artifacts and distortion.",
383
- "tags": ["Text to Image", "Image"],
443
+ "description": "Chroma1-Radiance travaille directement avec les pixels d'image au lieu des latents compressés, offrant des images de meilleure qualité avec moins d'artefacts et de distorsion.",
444
+ "tags": ["Texte vers image", "Image"],
384
445
  "models": ["Chroma"],
385
446
  "date": "2025-09-18",
386
447
  "size": 22.0,
@@ -388,11 +449,11 @@
388
449
  },
389
450
  {
390
451
  "name": "image_netayume_lumina_t2i",
391
- "title": "NetaYume Lumina Text to Image",
452
+ "title": "NetaYume Lumina Texte vers Image",
392
453
  "mediaType": "image",
393
454
  "mediaSubtype": "webp",
394
- "description": "High-quality anime-style image generation with enhanced character understanding and detailed textures. Fine-tuned from Neta Lumina on Danbooru dataset.",
395
- "tags": ["Text to Image", "Image", "Anime"],
455
+ "description": "Génération d'images de style anime de haute qualité avec compréhension améliorée des personnages et textures détaillées. Affinée à partir de Neta Lumina sur l'ensemble de données Danbooru.",
456
+ "tags": ["Texte vers image", "Image", "Anime"],
396
457
  "models": ["NetaYume Lumina"],
397
458
  "date": "2025-10-10",
398
459
  "size": 9.89
@@ -403,7 +464,7 @@
403
464
  "mediaType": "image",
404
465
  "mediaSubtype": "webp",
405
466
  "description": "Chroma est modifié à partir de Flux et présente quelques changements dans l'architecture.",
406
- "tags": ["Texte vers Image", "Image"],
467
+ "tags": ["Texte vers image", "Image"],
407
468
  "models": ["Chroma", "Flux"],
408
469
  "date": "2025-06-04",
409
470
  "size": 21.69,
@@ -429,7 +490,7 @@
429
490
  "mediaSubtype": "webp",
430
491
  "description": "Générer des images en utilisant la version quantifiée Flux Dev fp8. Convient aux appareils avec une VRAM limitée, ne nécessite qu'un seul fichier de modèle, mais la qualité de l'image est légèrement inférieure à la version complète.",
431
492
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
432
- "tags": ["Texte vers Image", "Image"],
493
+ "tags": ["Texte vers image", "Image"],
433
494
  "models": ["Flux"],
434
495
  "date": "2025-03-01",
435
496
  "size": 16.06,
@@ -442,7 +503,7 @@
442
503
  "thumbnailVariant": "hoverDissolve",
443
504
  "mediaType": "image",
444
505
  "mediaSubtype": "webp",
445
- "tags": ["Image to Image", "Image"],
506
+ "tags": ["Image vers image", "Image"],
446
507
  "models": ["Flux"],
447
508
  "date": "2025-09-02",
448
509
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-uso",
@@ -456,7 +517,7 @@
456
517
  "mediaSubtype": "webp",
457
518
  "description": "Générer rapidement des images avec la version quantifiée Flux Schnell fp8. Idéal pour le matériel d'entrée de gamme, ne nécessite que 4 étapes pour générer des images.",
458
519
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
459
- "tags": ["Texte vers Image", "Image"],
520
+ "tags": ["Texte vers image", "Image"],
460
521
  "models": ["Flux"],
461
522
  "date": "2025-03-01",
462
523
  "size": 16.05,
@@ -469,7 +530,7 @@
469
530
  "mediaSubtype": "webp",
470
531
  "description": "Un modèle FLUX affiné poussant le photoréalisme à son maximum",
471
532
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux1-krea-dev",
472
- "tags": ["Texte vers Image", "Image", "Photoréalisme"],
533
+ "tags": ["Texte vers image", "Image"],
473
534
  "models": ["Flux"],
474
535
  "date": "2025-07-31",
475
536
  "size": 20.74,
@@ -482,7 +543,7 @@
482
543
  "mediaSubtype": "webp",
483
544
  "description": "Générer des images de haute qualité avec la version complète de Flux Dev. Nécessite plus de VRAM et plusieurs fichiers de modèles, mais offre la meilleure capacité de suivi des prompts et la qualité d'image.",
484
545
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
485
- "tags": ["Texte vers Image", "Image"],
546
+ "tags": ["Texte vers image", "Image"],
486
547
  "models": ["Flux"],
487
548
  "date": "2025-03-01",
488
549
  "size": 31.83,
@@ -495,7 +556,7 @@
495
556
  "mediaSubtype": "webp",
496
557
  "description": "Générer des images rapidement avec la version complète de Flux Schnell. Utilise la licence Apache2.0, ne nécessite que 4 étapes pour générer des images tout en maintenant une bonne qualité d'image.",
497
558
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-text-to-image",
498
- "tags": ["Texte vers Image", "Image"],
559
+ "tags": ["Texte vers image", "Image"],
499
560
  "models": ["Flux"],
500
561
  "date": "2025-03-01",
501
562
  "size": 31.81
@@ -508,7 +569,7 @@
508
569
  "description": "Combler les parties manquantes des images en utilisant l'inpainting Flux.",
509
570
  "thumbnailVariant": "compareSlider",
510
571
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
511
- "tags": ["Image vers Image", "Inpainting", "Image"],
572
+ "tags": ["Image vers image", "Inpainting", "Image"],
512
573
  "models": ["Flux"],
513
574
  "date": "2025-03-01",
514
575
  "size": 9.66
@@ -521,7 +582,7 @@
521
582
  "description": "Étendre les images au-delà des limites en utilisant l'outpainting Flux.",
522
583
  "thumbnailVariant": "compareSlider",
523
584
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
524
- "tags": ["Outpainting", "Image", "Image vers Image"],
585
+ "tags": ["Outpainting", "Image", "Image vers image"],
525
586
  "models": ["Flux"],
526
587
  "date": "2025-03-01",
527
588
  "size": 9.66
@@ -534,7 +595,7 @@
534
595
  "description": "Générer des images guidées par la détection de contours en utilisant Flux Canny.",
535
596
  "thumbnailVariant": "hoverDissolve",
536
597
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
537
- "tags": ["Image vers Image", "ControlNet", "Image"],
598
+ "tags": ["Image vers image", "ControlNet", "Image"],
538
599
  "models": ["Flux"],
539
600
  "date": "2025-03-01",
540
601
  "size": 31.83
@@ -547,7 +608,7 @@
547
608
  "description": "Générer des images guidées par les informations de profondeur en utilisant Flux LoRA.",
548
609
  "thumbnailVariant": "hoverDissolve",
549
610
  "tutorialUrl": "ttps://docs.comfy.org/tutorials/flux/flux-1-controlnet",
550
- "tags": ["Image vers Image", "ControlNet", "Image", "LoRA"],
611
+ "tags": ["Image vers image", "ControlNet", "Image"],
551
612
  "models": ["Flux"],
552
613
  "date": "2025-03-01",
553
614
  "size": 32.98
@@ -559,7 +620,7 @@
559
620
  "mediaSubtype": "webp",
560
621
  "description": "Générer des images en transférant le style à partir d'images de référence en utilisant Flux Redux.",
561
622
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
562
- "tags": ["Image vers Image", "ControlNet", "Image", "LoRA"],
623
+ "tags": ["Image vers image", "ControlNet", "Image"],
563
624
  "models": ["Flux"],
564
625
  "date": "2025-03-01",
565
626
  "size": 32.74
@@ -571,7 +632,7 @@
571
632
  "mediaSubtype": "webp",
572
633
  "description": "Générer des images de haute qualité à partir de prompts textuels en utilisant le modèle multimodal unifié 7B d'OmniGen2 avec une architecture à double chemin.",
573
634
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
574
- "tags": ["Texte vers Image", "Image"],
635
+ "tags": ["Texte vers image", "Image"],
575
636
  "models": ["OmniGen"],
576
637
  "date": "2025-06-30",
577
638
  "size": 14.7
@@ -584,7 +645,7 @@
584
645
  "thumbnailVariant": "hoverDissolve",
585
646
  "description": "Éditer des images avec des instructions en langage naturel en utilisant les capacités avancées d'édition d'images d'OmniGen2 et le support de rendu de texte.",
586
647
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/omnigen/omnigen2",
587
- "tags": ["Édition d'Image", "Image"],
648
+ "tags": ["Édition d'image", "Image"],
588
649
  "models": ["OmniGen"],
589
650
  "date": "2025-06-30",
590
651
  "size": 14.7
@@ -596,7 +657,7 @@
596
657
  "mediaSubtype": "webp",
597
658
  "description": "Générer des images avec HiDream I1 Dev - Version équilibrée avec 28 étapes d'inférence, adaptée au matériel de gamme moyenne.",
598
659
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
599
- "tags": ["Texte vers Image", "Image"],
660
+ "tags": ["Texte vers image", "Image"],
600
661
  "models": ["HiDream"],
601
662
  "date": "2025-04-17",
602
663
  "size": 31.03
@@ -608,7 +669,7 @@
608
669
  "mediaSubtype": "webp",
609
670
  "description": "Générer des images rapidement avec HiDream I1 Fast - Version légère avec 16 étapes d'inférence, idéale pour des aperçus rapides sur du matériel d'entrée de gamme.",
610
671
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
611
- "tags": ["Texte vers Image", "Image"],
672
+ "tags": ["Texte vers image", "Image"],
612
673
  "models": ["HiDream"],
613
674
  "date": "2025-04-17",
614
675
  "size": 22.57
@@ -620,7 +681,7 @@
620
681
  "mediaSubtype": "webp",
621
682
  "description": "Générer des images avec HiDream I1 Full - Version complète avec 50 étapes d'inférence pour une sortie de la plus haute qualité.",
622
683
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-i1",
623
- "tags": ["Texte vers Image", "Image"],
684
+ "tags": ["Texte vers image", "Image"],
624
685
  "models": ["HiDream"],
625
686
  "date": "2025-04-17",
626
687
  "size": 22.57
@@ -633,7 +694,7 @@
633
694
  "thumbnailVariant": "compareSlider",
634
695
  "description": "Éditer des images avec HiDream E1.1 – il est meilleur en qualité d'image et en précision d'édition que HiDream-E1-Full.",
635
696
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
636
- "tags": ["Édition d'Image", "Image"],
697
+ "tags": ["Édition d'image", "Image"],
637
698
  "models": ["HiDream"],
638
699
  "date": "2025-07-21",
639
700
  "size": 46.96
@@ -646,7 +707,7 @@
646
707
  "thumbnailVariant": "compareSlider",
647
708
  "description": "Éditer des images avec HiDream E1 - Modèle professionnel d'édition d'images en langage naturel.",
648
709
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/hidream/hidream-e1",
649
- "tags": ["Édition d'Image", "Image"],
710
+ "tags": ["Édition d'image", "Image"],
650
711
  "models": ["HiDream"],
651
712
  "date": "2025-05-01",
652
713
  "size": 31.86
@@ -658,7 +719,7 @@
658
719
  "mediaSubtype": "webp",
659
720
  "description": "Générer des images en utilisant SD 3.5.",
660
721
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35",
661
- "tags": ["Texte vers Image", "Image"],
722
+ "tags": ["Texte vers image", "Image"],
662
723
  "models": ["SD3.5"],
663
724
  "date": "2025-03-01",
664
725
  "size": 13.91
@@ -671,33 +732,33 @@
671
732
  "description": "Générer des images guidées par la détection de contours en utilisant SD 3.5 Canny ControlNet.",
672
733
  "thumbnailVariant": "hoverDissolve",
673
734
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
674
- "tags": ["Image vers Image", "Image", "ControlNet"],
735
+ "tags": ["Image vers image", "Image", "ControlNet"],
675
736
  "models": ["SD3.5"],
676
737
  "date": "2025-03-01",
677
738
  "size": 21.97
678
739
  },
679
740
  {
680
741
  "name": "sd3.5_large_depth",
681
- "title": "SD3.5 Large Depth",
742
+ "title": "SD3.5 Large Profondeur",
682
743
  "mediaType": "image",
683
744
  "mediaSubtype": "webp",
684
745
  "description": "Générer des images guidées par les informations de profondeur en utilisant SD 3.5.",
685
746
  "thumbnailVariant": "hoverDissolve",
686
747
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
687
- "tags": ["Image vers Image", "Image", "ControlNet"],
748
+ "tags": ["Image vers image", "Image", "ControlNet"],
688
749
  "models": ["SD3.5"],
689
750
  "date": "2025-03-01",
690
751
  "size": 21.97
691
752
  },
692
753
  {
693
754
  "name": "sd3.5_large_blur",
694
- "title": "SD3.5 Large Blur",
755
+ "title": "SD3.5 Large Flou",
695
756
  "mediaType": "image",
696
757
  "mediaSubtype": "webp",
697
758
  "description": "Générer des images guidées par des images de référence floues en utilisant SD 3.5.",
698
759
  "thumbnailVariant": "hoverDissolve",
699
760
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sd3/#sd35-controlnets",
700
- "tags": ["Image vers Image", "Image"],
761
+ "tags": ["Image vers image", "Image"],
701
762
  "models": ["SD3.5"],
702
763
  "date": "2025-03-01",
703
764
  "size": 21.97
@@ -709,43 +770,31 @@
709
770
  "mediaSubtype": "webp",
710
771
  "description": "Générer des images de haute qualité en utilisant SDXL.",
711
772
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
712
- "tags": ["Texte vers Image", "Image"],
773
+ "tags": ["Texte vers image", "Image"],
713
774
  "models": ["SDXL", "Stability"],
714
775
  "date": "2025-03-01",
715
776
  "size": 12.12
716
777
  },
717
778
  {
718
779
  "name": "sdxl_refiner_prompt_example",
719
- "title": "SDXL Refiner Prompt",
780
+ "title": "SDXL Affineur de Prompt",
720
781
  "mediaType": "image",
721
782
  "mediaSubtype": "webp",
722
783
  "description": "Améliorer les images SDXL en utilisant des modèles de raffinement.",
723
784
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/",
724
- "tags": ["Texte vers Image", "Image"],
785
+ "tags": ["Texte vers image", "Image"],
725
786
  "models": ["SDXL", "Stability"],
726
787
  "date": "2025-03-01",
727
788
  "size": 12.12
728
789
  },
729
790
  {
730
791
  "name": "sdxl_revision_text_prompts",
731
- "title": "SDXL Revision Text Prompts",
792
+ "title": "SDXL Révision Prompts Texte",
732
793
  "mediaType": "image",
733
794
  "mediaSubtype": "webp",
734
795
  "description": "Générer des images en transférant des concepts à partir d'images de référence en utilisant SDXL Revision.",
735
796
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
736
- "tags": ["Texte vers Image", "Image"],
737
- "models": ["SDXL", "Stability"],
738
- "date": "2025-03-01",
739
- "size": 9.9
740
- },
741
- {
742
- "name": "sdxl_revision_zero_positive",
743
- "title": "SDXL Revision Zero Positive",
744
- "mediaType": "image",
745
- "mediaSubtype": "webp",
746
- "description": "Générer des images en utilisant à la fois des prompts textuels et des images de référence avec SDXL Revision.",
747
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
748
- "tags": ["Texte vers Image", "Image"],
797
+ "tags": ["Texte vers image", "Image"],
749
798
  "models": ["SDXL", "Stability"],
750
799
  "date": "2025-03-01",
751
800
  "size": 9.9
@@ -757,19 +806,19 @@
757
806
  "mediaSubtype": "webp",
758
807
  "description": "Générer des images en une seule étape en utilisant SDXL Turbo.",
759
808
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdturbo/",
760
- "tags": ["Texte vers Image", "Image"],
809
+ "tags": ["Texte vers image", "Image"],
761
810
  "models": ["SDXL", "Stability"],
762
811
  "date": "2025-03-01",
763
812
  "size": 6.46
764
813
  },
765
814
  {
766
815
  "name": "image_lotus_depth_v1_1",
767
- "title": "Lotus Depth",
816
+ "title": "Lotus Profondeur",
768
817
  "mediaType": "image",
769
818
  "mediaSubtype": "webp",
770
819
  "thumbnailVariant": "compareSlider",
771
820
  "description": "Exécuter Lotus Depth dans ComfyUI pour une estimation de profondeur monoculaire efficace zero-shot avec une haute rétention de détails.",
772
- "tags": ["Profondeur", "Image"],
821
+ "tags": ["Image", "Texte vers image"],
773
822
  "models": ["SD1.5"],
774
823
  "date": "2025-05-21",
775
824
  "size": 1.93
@@ -781,36 +830,36 @@
781
830
  "type": "video",
782
831
  "category": "GENERATION TYPE",
783
832
  "icon": "icon-[lucide--film]",
784
- "title": "Vidéo",
833
+ "title": "Video",
785
834
  "templates": [
786
835
  {
787
836
  "name": "video_wan2_2_14B_t2v",
788
- "title": "Wan 2.2 14B Text to Video",
837
+ "title": "Wan 2.2 14B Texte vers Vidéo",
789
838
  "description": "Générer des vidéos de haute qualité à partir de prompts textuels avec un contrôle esthétique cinématographique et une génération de mouvement dynamique en utilisant Wan 2.2.",
790
839
  "mediaType": "image",
791
840
  "mediaSubtype": "webp",
792
841
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
793
- "tags": ["Texte vers Vidéo", "Vidéo"],
842
+ "tags": ["Texte vers vidéo", "Vidéo"],
794
843
  "models": ["Wan2.2", "Wan"],
795
844
  "date": "2025-07-29",
796
845
  "size": 35.42
797
846
  },
798
847
  {
799
848
  "name": "video_wan2_2_14B_i2v",
800
- "title": "Wan 2.2 14B Image to Video",
849
+ "title": "Wan 2.2 14B Image vers Vidéo",
801
850
  "description": "Transformer des images statiques en vidéos dynamiques avec un contrôle précis du mouvement et une préservation du style en utilisant Wan 2.2.",
802
851
  "mediaType": "image",
803
852
  "mediaSubtype": "webp",
804
853
  "thumbnailVariant": "hoverDissolve",
805
854
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
806
- "tags": ["Image vers Vidéo", "Vidéo"],
855
+ "tags": ["Image vers vidéo", "Vidéo"],
807
856
  "models": ["Wan2.2", "Wan"],
808
857
  "date": "2025-07-29",
809
858
  "size": 35.42
810
859
  },
811
860
  {
812
861
  "name": "video_wan2_2_14B_flf2v",
813
- "title": "Wan 2.2 14B First-Last Frame to Video",
862
+ "title": "Wan 2.2 14B Première-Dernière Image vers Vidéo",
814
863
  "description": "Générer des transitions vidéo fluides en définissant les images de début et de fin.",
815
864
  "mediaType": "image",
816
865
  "mediaSubtype": "webp",
@@ -823,12 +872,12 @@
823
872
  },
824
873
  {
825
874
  "name": "video_wan2_2_14B_animate",
826
- "title": "Wan2.2 Animate, character animation and replacement",
827
- "description": "Unified character animation and replacement framework with precise motion and expression replication.",
875
+ "title": "Wan2.2 Animate animation et remplacement de personnages",
876
+ "description": "Cadre unifié d'animation et de remplacement de personnages avec réplication précise des mouvements et expressions。",
828
877
  "mediaType": "image",
829
878
  "mediaSubtype": "webp",
830
879
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-animate",
831
- "tags": ["Video", "Image to Video"],
880
+ "tags": ["Vidéo", "Image vers vidéo"],
832
881
  "models": ["Wan2.2", "Wan"],
833
882
  "date": "2025-09-22",
834
883
  "size": 25.535
@@ -847,23 +896,23 @@
847
896
  },
848
897
  {
849
898
  "name": "video_humo",
850
- "title": "HuMo Video Generation",
851
- "description": "Generate videos basic on audio, image, and text, keep the character's lip sync.",
899
+ "title": "HuMo Génération Vidéo",
900
+ "description": "Générez des vidéos basées sur l'audio, l'image et le texte, en préservant la synchronisation labiale des personnages.",
852
901
  "mediaType": "image",
853
902
  "mediaSubtype": "webp",
854
- "tags": ["Video"],
903
+ "tags": ["Vidéo"],
855
904
  "models": ["HuMo"],
856
905
  "date": "2025-09-21",
857
906
  "size": 25.98
858
907
  },
859
908
  {
860
909
  "name": "video_wan2_2_14B_fun_inpaint",
861
- "title": "Wan 2.2 14B Fun Inp",
862
- "description": "Generate videos from start and end frames using Wan 2.2 Fun Inp.",
910
+ "title": "Wan 2.2 14B Fun Inpainting",
911
+ "description": "Générez des vidéos à partir des images de début et de fin avec Wan 2.2 Fun Inp.",
863
912
  "mediaType": "image",
864
913
  "mediaSubtype": "webp",
865
914
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-inp",
866
- "tags": ["FLF2V", "Video"],
915
+ "tags": ["FLF2V", "Vidéo"],
867
916
  "models": ["Wan2.2", "Wan"],
868
917
  "date": "2025-08-12",
869
918
  "size": 35.42
@@ -875,42 +924,42 @@
875
924
  "mediaType": "image",
876
925
  "mediaSubtype": "webp",
877
926
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-control",
878
- "tags": ["Vidéo vers Vidéo", "Vidéo"],
927
+ "tags": ["Vidéo vers vidéo", "Vidéo"],
879
928
  "models": ["Wan2.2", "Wan"],
880
929
  "date": "2025-08-12",
881
930
  "size": 35.42
882
931
  },
883
932
  {
884
933
  "name": "video_wan2_2_14B_fun_camera",
885
- "title": "Wan 2.2 14B Fun Camera Control",
934
+ "title": "Wan 2.2 14B Contrôle Caméra Fun",
886
935
  "description": "Générer des vidéos avec des contrôles de mouvement de caméra incluant le panoramique, le zoom et la rotation en utilisant Wan 2.2 Fun Camera Control.",
887
936
  "mediaType": "image",
888
937
  "mediaSubtype": "webp",
889
938
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-camera",
890
- "tags": ["Vidéo vers Vidéo", "Vidéo"],
939
+ "tags": ["Vidéo vers vidéo", "Vidéo"],
891
940
  "models": ["Wan2.2", "Wan"],
892
941
  "date": "2025-08-17",
893
942
  "size": 37.3
894
943
  },
895
944
  {
896
945
  "name": "video_wan2_2_5B_ti2v",
897
- "title": "Wan 2.2 5B Video Generation",
946
+ "title": "Wan 2.2 5B Génération Vidéo",
898
947
  "description": "Générer des vidéos à partir de texte ou d'images en utilisant le modèle hybride Wan 2.2 5B",
899
948
  "mediaType": "image",
900
949
  "mediaSubtype": "webp",
901
950
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
902
- "tags": ["Texte vers Vidéo", "Vidéo"],
951
+ "tags": ["Texte vers vidéo", "Vidéo"],
903
952
  "models": ["Wan2.2", "Wan"],
904
953
  "date": "2025-07-29",
905
954
  "size": 16.9
906
955
  },
907
956
  {
908
957
  "name": "video_wan2_2_5B_fun_inpaint",
909
- "title": "Wan 2.2 5B Fun Inpaint",
958
+ "title": "Wan 2.2 5B Fun Inpainting",
910
959
  "description": "Inpainting vidéo efficace à partir des images de début et de fin. Le modèle 5B offre des itérations rapides pour tester les flux de travail.",
911
960
  "mediaType": "image",
912
961
  "mediaSubtype": "webp",
913
- "tags": ["Texte vers Vidéo", "Vidéo"],
962
+ "tags": ["Texte vers vidéo", "Vidéo"],
914
963
  "models": ["Wan2.2", "Wan"],
915
964
  "date": "2025-07-29",
916
965
  "size": 16.9
@@ -921,7 +970,7 @@
921
970
  "description": "Contrôle vidéo multi-conditions avec guidance par pose, profondeur et contours. Taille compacte 5B pour un développement expérimental.",
922
971
  "mediaType": "image",
923
972
  "mediaSubtype": "webp",
924
- "tags": ["Texte vers Vidéo", "Vidéo"],
973
+ "tags": ["Texte vers vidéo", "Vidéo"],
925
974
  "models": ["Wan2.2", "Wan"],
926
975
  "date": "2025-07-29",
927
976
  "size": 16.9
@@ -933,7 +982,7 @@
933
982
  "mediaType": "image",
934
983
  "mediaSubtype": "webp",
935
984
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
936
- "tags": ["Texte vers Vidéo", "Vidéo"],
985
+ "tags": ["Texte vers vidéo", "Vidéo"],
937
986
  "models": ["Wan2.1", "Wan"],
938
987
  "date": "2025-05-21",
939
988
  "size": 53.79
@@ -945,7 +994,7 @@
945
994
  "mediaType": "image",
946
995
  "mediaSubtype": "webp",
947
996
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
948
- "tags": ["Référence vers Vidéo", "Vidéo"],
997
+ "tags": ["Vidéo", "Image vers vidéo"],
949
998
  "models": ["Wan2.1", "Wan"],
950
999
  "date": "2025-05-21",
951
1000
  "size": 53.79
@@ -958,7 +1007,7 @@
958
1007
  "mediaSubtype": "webp",
959
1008
  "thumbnailVariant": "compareSlider",
960
1009
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
961
- "tags": ["Vidéo vers Vidéo", "Vidéo"],
1010
+ "tags": ["Vidéo vers vidéo", "Vidéo"],
962
1011
  "models": ["Wan2.1", "Wan"],
963
1012
  "date": "2025-05-21",
964
1013
  "size": 53.79
@@ -1003,11 +1052,11 @@
1003
1052
  },
1004
1053
  {
1005
1054
  "name": "video_wan2.1_alpha_t2v_14B",
1006
- "title": "Wan2.1 Alpha T2V",
1007
- "description": "Generate text-to-video with alpha channel support for transparent backgrounds and semi-transparent objects.",
1055
+ "title": "Wan2.1 Alpha Texte vers Vidéo",
1056
+ "description": "Générez des vidéos à partir de texte avec support de canal alpha pour des arrière-plans transparents et objets semi-transparents.",
1008
1057
  "mediaType": "image",
1009
1058
  "mediaSubtype": "webp",
1010
- "tags": ["Text to Video", "Video"],
1059
+ "tags": ["Texte vers vidéo", "Vidéo"],
1011
1060
  "models": ["Wan2.1", "Wan"],
1012
1061
  "date": "2025-10-06",
1013
1062
  "size": 20.95
@@ -1027,7 +1076,7 @@
1027
1076
  },
1028
1077
  {
1029
1078
  "name": "video_wan2.1_fun_camera_v1.1_1.3B",
1030
- "title": "Wan 2.1 Fun Camera 1.3B",
1079
+ "title": "Wan 2.1 Contrôle Caméra Fun 1.3B",
1031
1080
  "description": "Générer des vidéos dynamiques avec des mouvements de caméra cinématographiques en utilisant le modèle Wan 2.1 Fun Camera 1.3B.",
1032
1081
  "mediaType": "image",
1033
1082
  "mediaSubtype": "webp",
@@ -1039,7 +1088,7 @@
1039
1088
  },
1040
1089
  {
1041
1090
  "name": "video_wan2.1_fun_camera_v1.1_14B",
1042
- "title": "Wan 2.1 Fun Camera 14B",
1091
+ "title": "Wan 2.1 Contrôle Caméra Fun 14B",
1043
1092
  "description": "Générer des vidéos de haute qualité avec un contrôle avancé de la caméra en utilisant le modèle 14B complet",
1044
1093
  "mediaType": "image",
1045
1094
  "mediaSubtype": "webp",
@@ -1051,24 +1100,24 @@
1051
1100
  },
1052
1101
  {
1053
1102
  "name": "text_to_video_wan",
1054
- "title": "Wan 2.1 Text to Video",
1103
+ "title": "Wan 2.1 Texte vers Vidéo",
1055
1104
  "description": "Générer des vidéos à partir de prompts textuels en utilisant Wan 2.1.",
1056
1105
  "mediaType": "image",
1057
1106
  "mediaSubtype": "webp",
1058
1107
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan-video",
1059
- "tags": ["Texte vers Vidéo", "Vidéo"],
1108
+ "tags": ["Texte vers vidéo", "Vidéo"],
1060
1109
  "models": ["Wan2.1", "Wan"],
1061
1110
  "date": "2025-03-01",
1062
1111
  "size": 9.15
1063
1112
  },
1064
1113
  {
1065
1114
  "name": "image_to_video_wan",
1066
- "title": "Wan 2.1 Image to Video",
1115
+ "title": "Wan 2.1 Image vers Vidéo",
1067
1116
  "description": "Générer des vidéos à partir d'images en utilisant Wan 2.1.",
1068
1117
  "mediaType": "image",
1069
1118
  "mediaSubtype": "webp",
1070
1119
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan-video",
1071
- "tags": ["Texte vers Vidéo", "Vidéo"],
1120
+ "tags": ["Texte vers vidéo", "Vidéo"],
1072
1121
  "models": ["Wan2.1", "Wan"],
1073
1122
  "date": "2025-03-01",
1074
1123
  "size": 38.23
@@ -1087,20 +1136,20 @@
1087
1136
  },
1088
1137
  {
1089
1138
  "name": "wan2.1_fun_control",
1090
- "title": "Wan 2.1 ControlNet",
1139
+ "title": "Wan 2.1 Réseau de Contrôle",
1091
1140
  "description": "Générer des vidéos guidées par des contrôles de pose, de profondeur et de contours en utilisant Wan 2.1 ControlNet.",
1092
1141
  "mediaType": "image",
1093
1142
  "mediaSubtype": "webp",
1094
1143
  "thumbnailVariant": "hoverDissolve",
1095
1144
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/fun-control",
1096
- "tags": ["Vidéo vers Vidéo", "Vidéo"],
1145
+ "tags": ["Vidéo vers vidéo", "Vidéo"],
1097
1146
  "models": ["Wan2.1", "Wan"],
1098
1147
  "date": "2025-04-15",
1099
1148
  "size": 10.6
1100
1149
  },
1101
1150
  {
1102
1151
  "name": "wan2.1_flf2v_720_f16",
1103
- "title": "Wan 2.1 FLF2V 720p F16",
1152
+ "title": "Wan 2.1 Vidéo Premier-Dernier Image 720p F16",
1104
1153
  "description": "Générer des vidéos en contrôlant les première et dernière images en utilisant Wan 2.1 FLF2V.",
1105
1154
  "mediaType": "image",
1106
1155
  "mediaSubtype": "webp",
@@ -1112,72 +1161,72 @@
1112
1161
  },
1113
1162
  {
1114
1163
  "name": "ltxv_text_to_video",
1115
- "title": "LTXV Text to Video",
1164
+ "title": "LTXV Texte vers Vidéo",
1116
1165
  "mediaType": "image",
1117
1166
  "mediaSubtype": "webp",
1118
1167
  "description": "Générer des vidéos à partir de prompts textuels.",
1119
1168
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/ltxv",
1120
- "tags": ["Texte vers Vidéo", "Vidéo"],
1169
+ "tags": ["Texte vers vidéo", "Vidéo"],
1121
1170
  "models": ["LTXV"],
1122
1171
  "date": "2025-03-01",
1123
1172
  "size": 17.84
1124
1173
  },
1125
1174
  {
1126
1175
  "name": "ltxv_image_to_video",
1127
- "title": "LTXV Image to Video",
1176
+ "title": "LTXV Image vers Vidéo",
1128
1177
  "mediaType": "image",
1129
1178
  "mediaSubtype": "webp",
1130
1179
  "description": "Générer des vidéos à partir d'images fixes.",
1131
1180
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/ltxv",
1132
- "tags": ["Image vers Vidéo", "Vidéo"],
1181
+ "tags": ["Image vers vidéo", "Vidéo"],
1133
1182
  "models": ["LTXV"],
1134
1183
  "date": "2025-03-01",
1135
1184
  "size": 17.84
1136
1185
  },
1137
1186
  {
1138
1187
  "name": "mochi_text_to_video_example",
1139
- "title": "Mochi Text to Video",
1188
+ "title": "Mochi Texte vers Vidéo",
1140
1189
  "mediaType": "image",
1141
1190
  "mediaSubtype": "webp",
1142
1191
  "description": "Générer des vidéos à partir de prompts textuels en utilisant le modèle Mochi.",
1143
1192
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/mochi/",
1144
- "tags": ["Texte vers Vidéo", "Vidéo"],
1193
+ "tags": ["Texte vers vidéo", "Vidéo"],
1145
1194
  "models": ["Mochi"],
1146
1195
  "date": "2025-03-01",
1147
1196
  "size": 28.65
1148
1197
  },
1149
1198
  {
1150
1199
  "name": "hunyuan_video_text_to_video",
1151
- "title": "Hunyuan Video Text to Video",
1200
+ "title": "Hunyuan Vidéo Texte vers Vidéo",
1152
1201
  "mediaType": "image",
1153
1202
  "mediaSubtype": "webp",
1154
1203
  "description": "Générer des vidéos à partir de prompts textuels en utilisant le modèle Hunyuan.",
1155
1204
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/",
1156
- "tags": ["Texte vers Vidéo", "Vidéo"],
1205
+ "tags": ["Texte vers vidéo", "Vidéo"],
1157
1206
  "models": ["Hunyuan Video"],
1158
1207
  "date": "2025-03-01",
1159
1208
  "size": 33.04
1160
1209
  },
1161
1210
  {
1162
1211
  "name": "image_to_video",
1163
- "title": "SVD Image to Video",
1212
+ "title": "SVD Image vers Vidéo",
1164
1213
  "mediaType": "image",
1165
1214
  "mediaSubtype": "webp",
1166
1215
  "description": "Générer des vidéos à partir d'images fixes.",
1167
1216
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/video/#image-to-video",
1168
- "tags": ["Image vers Vidéo", "Vidéo"],
1217
+ "tags": ["Image vers vidéo", "Vidéo"],
1169
1218
  "models": ["SVD"],
1170
1219
  "date": "2025-03-01",
1171
1220
  "size": 8.9
1172
1221
  },
1173
1222
  {
1174
1223
  "name": "txt_to_image_to_video",
1175
- "title": "SVD Text to Image to Video",
1224
+ "title": "SVD Texte à Image à Vidéo",
1176
1225
  "mediaType": "image",
1177
1226
  "mediaSubtype": "webp",
1178
1227
  "description": "Générer des vidéos en créant d'abord des images à partir de prompts textuels.",
1179
1228
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/video/#image-to-video",
1180
- "tags": ["Texte vers Vidéo", "Vidéo"],
1229
+ "tags": ["Texte vers vidéo", "Vidéo"],
1181
1230
  "models": ["SVD"],
1182
1231
  "date": "2025-03-01",
1183
1232
  "size": 15.36
@@ -1193,11 +1242,11 @@
1193
1242
  "templates": [
1194
1243
  {
1195
1244
  "name": "audio_stable_audio_example",
1196
- "title": "Stable Audio",
1245
+ "title": "Audio Stable",
1197
1246
  "mediaType": "audio",
1198
1247
  "mediaSubtype": "mp3",
1199
1248
  "description": "Générer de l'audio à partir de prompts textuels en utilisant Stable Audio.",
1200
- "tags": ["Texte vers Audio", "Audio"],
1249
+ "tags": ["Texte vers audio", "Audio"],
1201
1250
  "models": ["Stable Audio"],
1202
1251
  "date": "2025-03-01",
1203
1252
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/audio/",
@@ -1205,11 +1254,11 @@
1205
1254
  },
1206
1255
  {
1207
1256
  "name": "audio_ace_step_1_t2a_instrumentals",
1208
- "title": "ACE-Step v1 Text to Instrumentals Music",
1257
+ "title": "ACE-Step v1 Texte vers Musique Instrumentale",
1209
1258
  "mediaType": "audio",
1210
1259
  "mediaSubtype": "mp3",
1211
1260
  "description": "Générer de la musique instrumentale à partir de prompts textuels en utilisant ACE-Step v1.",
1212
- "tags": ["Texte vers Audio", "Audio", "Instrumentals"],
1261
+ "tags": ["Texte vers audio", "Audio"],
1213
1262
  "models": ["ACE-Step"],
1214
1263
  "date": "2025-03-01",
1215
1264
  "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
@@ -1217,11 +1266,11 @@
1217
1266
  },
1218
1267
  {
1219
1268
  "name": "audio_ace_step_1_t2a_song",
1220
- "title": "ACE Step v1 Text to Song",
1269
+ "title": "ACE Step v1 Texte vers Chanson",
1221
1270
  "mediaType": "audio",
1222
1271
  "mediaSubtype": "mp3",
1223
1272
  "description": "Générer des chansons avec des voix à partir de prompts textuels en utilisant ACE-Step v1, prenant en charge la multilingue et la personnalisation du style.",
1224
- "tags": ["Texte vers Audio", "Audio", "Song"],
1273
+ "tags": ["Texte vers audio", "Audio"],
1225
1274
  "models": ["ACE-Step"],
1226
1275
  "date": "2025-03-01",
1227
1276
  "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
@@ -1229,11 +1278,11 @@
1229
1278
  },
1230
1279
  {
1231
1280
  "name": "audio_ace_step_1_m2m_editing",
1232
- "title": "ACE Step v1 M2M Editing",
1281
+ "title": "ACE Step v1 Édition M2M",
1233
1282
  "mediaType": "audio",
1234
1283
  "mediaSubtype": "mp3",
1235
1284
  "description": "Éditer des chansons existantes pour changer le style et les paroles en utilisant ACE-Step v1 M2M.",
1236
- "tags": ["Édition Audio", "Audio"],
1285
+ "tags": ["Édition audio", "Audio"],
1237
1286
  "models": ["ACE-Step"],
1238
1287
  "date": "2025-03-01",
1239
1288
  "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
@@ -1246,15 +1295,15 @@
1246
1295
  "type": "3d",
1247
1296
  "category": "GENERATION TYPE",
1248
1297
  "icon": "icon-[lucide--box]",
1249
- "title": "3D",
1298
+ "title": "3D Model",
1250
1299
  "templates": [
1251
1300
  {
1252
1301
  "name": "3d_hunyuan3d-v2.1",
1253
1302
  "title": "Hunyuan3D 2.1",
1254
1303
  "mediaType": "image",
1255
1304
  "mediaSubtype": "webp",
1256
- "description": "Generate 3D models from single images using Hunyuan3D 2.0.",
1257
- "tags": ["Image to Model", "3D"],
1305
+ "description": "Générez des modèles 3D à partir d'images uniques avec Hunyuan3D 2.0.",
1306
+ "tags": ["Image vers 3D", "3D"],
1258
1307
  "models": ["Hunyuan3D"],
1259
1308
  "date": "2025-03-01",
1260
1309
  "tutorialUrl": "",
@@ -1266,7 +1315,7 @@
1266
1315
  "mediaType": "image",
1267
1316
  "mediaSubtype": "webp",
1268
1317
  "description": "Générer des modèles 3D à partir d'images simples en utilisant Hunyuan3D 2.0.",
1269
- "tags": ["Image vers Modèle", "3D"],
1318
+ "tags": ["Image vers 3D", "3D"],
1270
1319
  "models": ["Hunyuan3D"],
1271
1320
  "date": "2025-03-01",
1272
1321
  "tutorialUrl": "",
@@ -1275,11 +1324,11 @@
1275
1324
  },
1276
1325
  {
1277
1326
  "name": "3d_hunyuan3d_multiview_to_model",
1278
- "title": "Hunyuan3D 2.0 MV",
1327
+ "title": "Hunyuan3D 2.0 Multivue",
1279
1328
  "mediaType": "image",
1280
1329
  "mediaSubtype": "webp",
1281
1330
  "description": "Générer des modèles 3D à partir de vues multiples en utilisant Hunyuan3D 2.0 MV.",
1282
- "tags": ["Multivue vers Modèle", "3D"],
1331
+ "tags": ["3D", "Image vers 3D"],
1283
1332
  "models": ["Hunyuan3D"],
1284
1333
  "date": "2025-03-01",
1285
1334
  "tutorialUrl": "",
@@ -1288,28 +1337,16 @@
1288
1337
  },
1289
1338
  {
1290
1339
  "name": "3d_hunyuan3d_multiview_to_model_turbo",
1291
- "title": "Hunyuan3D 2.0 MV Turbo",
1340
+ "title": "Hunyuan3D 2.0 Multivue Turbo",
1292
1341
  "mediaType": "image",
1293
1342
  "mediaSubtype": "webp",
1294
1343
  "description": "Générer des modèles 3D à partir de vues multiples en utilisant Hunyuan3D 2.0 MV Turbo.",
1295
- "tags": ["Multivue vers Modèle", "3D"],
1344
+ "tags": ["Image vers 3D", "3D"],
1296
1345
  "models": ["Hunyuan3D"],
1297
1346
  "date": "2025-03-01",
1298
1347
  "tutorialUrl": "",
1299
1348
  "thumbnailVariant": "hoverDissolve",
1300
1349
  "size": 4.59
1301
- },
1302
- {
1303
- "name": "stable_zero123_example",
1304
- "title": "Stable Zero123",
1305
- "mediaType": "image",
1306
- "mediaSubtype": "webp",
1307
- "description": "Générer des vues 3D à partir d'images simples en utilisant Stable Zero123.",
1308
- "tags": ["Image vers 3D", "3D"],
1309
- "models": ["Stable Zero123"],
1310
- "date": "2025-03-01",
1311
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/3d/",
1312
- "size": 7.99
1313
1350
  }
1314
1351
  ]
1315
1352
  },
@@ -1318,15 +1355,15 @@
1318
1355
  "type": "image",
1319
1356
  "category": "CLOSED SOURCE MODELS",
1320
1357
  "icon": "icon-[lucide--hand-coins]",
1321
- "title": "API Image",
1358
+ "title": "Image API",
1322
1359
  "templates": [
1323
1360
  {
1324
1361
  "name": "api_bytedance_seedream4",
1325
1362
  "title": "ByteDance Seedream 4.0",
1326
- "description": "Multi-modal AI model for text-to-image and image editing. Generate 2K images in under 2 seconds with natural language control.",
1363
+ "description": "Modèle d'IA multimodal pour la génération d'images à partir de texte et l'édition d'images. Générez des images 2K en moins de 2 secondes avec un contrôle en langage naturel.",
1327
1364
  "mediaType": "image",
1328
1365
  "mediaSubtype": "webp",
1329
- "tags": ["Image Edit", "Image", "API", "Text-to-Image"],
1366
+ "tags": ["Édition d'image", "Image", "API", "Texte vers image"],
1330
1367
  "models": ["Seedream 4.0", "ByteDance"],
1331
1368
  "date": "2025-09-11",
1332
1369
  "OpenSource": false,
@@ -1339,7 +1376,7 @@
1339
1376
  "description": "Nano-banana (Gemini-2.5-Flash Image) - édition d'images avec cohérence.",
1340
1377
  "mediaType": "image",
1341
1378
  "mediaSubtype": "webp",
1342
- "tags": ["Édition d'Image", "Image", "API", "Texte-vers-Image"],
1379
+ "tags": ["Édition d'image", "Image", "API", "Texte vers image"],
1343
1380
  "models": ["Gemini-2.5-Flash", "nano-banana", "Google"],
1344
1381
  "date": "2025-08-27",
1345
1382
  "OpenSource": false,
@@ -1348,13 +1385,13 @@
1348
1385
  },
1349
1386
  {
1350
1387
  "name": "api_bfl_flux_1_kontext_multiple_images_input",
1351
- "title": "BFL Flux.1 Kontext Multiple Image Input",
1388
+ "title": "BFL Flux.1 Kontext Entrée Multi-Images",
1352
1389
  "description": "Importer plusieurs images et les éditer avec Flux.1 Kontext.",
1353
1390
  "mediaType": "image",
1354
1391
  "mediaSubtype": "webp",
1355
1392
  "thumbnailVariant": "compareSlider",
1356
1393
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
1357
- "tags": ["Édition d'Image", "Image"],
1394
+ "tags": ["Édition d'image", "Image"],
1358
1395
  "models": ["Flux", "Kontext"],
1359
1396
  "date": "2025-05-29",
1360
1397
  "OpenSource": false,
@@ -1369,7 +1406,7 @@
1369
1406
  "mediaSubtype": "webp",
1370
1407
  "thumbnailVariant": "compareSlider",
1371
1408
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
1372
- "tags": ["Édition d'Image", "Image"],
1409
+ "tags": ["Édition d'image", "Image"],
1373
1410
  "models": ["Flux", "Kontext", "BFL"],
1374
1411
  "date": "2025-05-29",
1375
1412
  "OpenSource": false,
@@ -1384,7 +1421,7 @@
1384
1421
  "mediaSubtype": "webp",
1385
1422
  "thumbnailVariant": "compareSlider",
1386
1423
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-kontext",
1387
- "tags": ["Édition d'Image", "Image"],
1424
+ "tags": ["Édition d'image", "Image"],
1388
1425
  "models": ["Flux", "Kontext", "BFL"],
1389
1426
  "date": "2025-05-29",
1390
1427
  "OpenSource": false,
@@ -1393,11 +1430,11 @@
1393
1430
  },
1394
1431
  {
1395
1432
  "name": "api_wan_text_to_image",
1396
- "title": "Wan2.5: Text to Image",
1397
- "description": "Generate images with excellent prompt following and visual quality using FLUX.1 Pro.",
1433
+ "title": "Wan2.5: Texte vers Image",
1434
+ "description": "Générez des images avec un excellent suivi des prompts et une qualité visuelle élevée avec FLUX.1 Pro.",
1398
1435
  "mediaType": "image",
1399
1436
  "mediaSubtype": "webp",
1400
- "tags": ["Text to Image", "Image", "API"],
1437
+ "tags": ["Texte vers image", "Image", "API"],
1401
1438
  "models": ["Wan2.5"],
1402
1439
  "date": "2025-09-25",
1403
1440
  "OpenSource": false,
@@ -1406,12 +1443,12 @@
1406
1443
  },
1407
1444
  {
1408
1445
  "name": "api_bfl_flux_pro_t2i",
1409
- "title": "BFL Flux[Pro]: Text to Image",
1446
+ "title": "BFL Flux[Pro]: Texte vers Image",
1410
1447
  "description": "Générer des images avec un excellent suivi des prompts et une qualité visuelle en utilisant FLUX.1 Pro.",
1411
1448
  "mediaType": "image",
1412
1449
  "mediaSubtype": "webp",
1413
1450
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/black-forest-labs/flux-1-1-pro-ultra-image",
1414
- "tags": ["Édition d'Image", "Image"],
1451
+ "tags": ["Édition d'image", "Image"],
1415
1452
  "models": ["Flux", "BFL"],
1416
1453
  "date": "2025-05-01",
1417
1454
  "OpenSource": false,
@@ -1420,12 +1457,12 @@
1420
1457
  },
1421
1458
  {
1422
1459
  "name": "api_luma_photon_i2i",
1423
- "title": "Luma Photon: Image to Image",
1460
+ "title": "Luma Photon: Image vers Image",
1424
1461
  "description": "Guider la génération d'images en utilisant une combinaison d'images et de prompt.",
1425
1462
  "mediaType": "image",
1426
1463
  "mediaSubtype": "webp",
1427
1464
  "thumbnailVariant": "compareSlider",
1428
- "tags": ["Image vers Image", "Image", "API"],
1465
+ "tags": ["Image vers image", "Image", "API"],
1429
1466
  "models": ["Luma"],
1430
1467
  "date": "2025-03-01",
1431
1468
  "OpenSource": false,
@@ -1434,12 +1471,12 @@
1434
1471
  },
1435
1472
  {
1436
1473
  "name": "api_luma_photon_style_ref",
1437
- "title": "Luma Photon: Style Reference",
1474
+ "title": "Luma Photon: Référence de Style",
1438
1475
  "description": "Générer des images en mélangeant des références de style avec un contrôle précis en utilisant Luma Photon.",
1439
1476
  "mediaType": "image",
1440
1477
  "mediaSubtype": "webp",
1441
1478
  "thumbnailVariant": "compareSlider",
1442
- "tags": ["Texte vers Image", "Image", "API", "Transfert de Style"],
1479
+ "tags": ["Texte vers image", "Image", "API"],
1443
1480
  "models": ["Luma"],
1444
1481
  "date": "2025-03-01",
1445
1482
  "OpenSource": false,
@@ -1448,11 +1485,11 @@
1448
1485
  },
1449
1486
  {
1450
1487
  "name": "api_recraft_image_gen_with_color_control",
1451
- "title": "Recraft: Color Control Image Generation",
1488
+ "title": "Recraft: Génération d'Image avec Contrôle Couleur",
1452
1489
  "description": "Générer des images avec des palettes de couleurs personnalisées et des visuels spécifiques à la marque en utilisant Recraft.",
1453
1490
  "mediaType": "image",
1454
1491
  "mediaSubtype": "webp",
1455
- "tags": ["Texte vers Image", "Image", "API", "Contrôle de Couleur"],
1492
+ "tags": ["Texte vers image", "Image", "API"],
1456
1493
  "models": ["Recraft"],
1457
1494
  "date": "2025-03-01",
1458
1495
  "OpenSource": false,
@@ -1461,11 +1498,11 @@
1461
1498
  },
1462
1499
  {
1463
1500
  "name": "api_recraft_image_gen_with_style_control",
1464
- "title": "Recraft: Style Control Image Generation",
1501
+ "title": "Recraft: Génération d'Image avec Contrôle Style",
1465
1502
  "description": "Contrôler le style avec des exemples visuels, aligner le positionnement et affiner les objets. Stocker et partager des styles pour une cohérence de marque parfaite.",
1466
1503
  "mediaType": "image",
1467
1504
  "mediaSubtype": "webp",
1468
- "tags": ["Texte vers Image", "Image", "API", "Contrôle de Style"],
1505
+ "tags": ["Texte vers image", "Image", "API"],
1469
1506
  "models": ["Recraft"],
1470
1507
  "date": "2025-03-01",
1471
1508
  "OpenSource": false,
@@ -1474,11 +1511,11 @@
1474
1511
  },
1475
1512
  {
1476
1513
  "name": "api_recraft_vector_gen",
1477
- "title": "Recraft: Vector Generation",
1514
+ "title": "Recraft: Génération Vectorielle",
1478
1515
  "description": "Générer des images vectorielles de haute qualité à partir de prompts textuels en utilisant le générateur AI vectoriel de Recraft.",
1479
1516
  "mediaType": "image",
1480
1517
  "mediaSubtype": "webp",
1481
- "tags": ["Texte vers Image", "Image", "API", "Vector"],
1518
+ "tags": ["Texte vers image", "Image", "API", "Vectoriel"],
1482
1519
  "models": ["Recraft"],
1483
1520
  "date": "2025-03-01",
1484
1521
  "OpenSource": false,
@@ -1487,11 +1524,11 @@
1487
1524
  },
1488
1525
  {
1489
1526
  "name": "api_runway_text_to_image",
1490
- "title": "Runway: Text to Image",
1527
+ "title": "Runway: Texte vers Image",
1491
1528
  "description": "Générer des images de haute qualité à partir de prompts textuels en utilisant le modèle AI de Runway.",
1492
1529
  "mediaType": "image",
1493
1530
  "mediaSubtype": "webp",
1494
- "tags": ["Texte vers Image", "Image", "API"],
1531
+ "tags": ["Texte vers image", "Image", "API"],
1495
1532
  "models": ["Runway"],
1496
1533
  "date": "2025-03-01",
1497
1534
  "OpenSource": false,
@@ -1500,12 +1537,12 @@
1500
1537
  },
1501
1538
  {
1502
1539
  "name": "api_runway_reference_to_image",
1503
- "title": "Runway: Reference to Image",
1540
+ "title": "Runway: Référence vers Image",
1504
1541
  "description": "Générer de nouvelles images basées sur des styles et compositions de référence avec l'AI de Runway.",
1505
1542
  "mediaType": "image",
1506
1543
  "thumbnailVariant": "compareSlider",
1507
1544
  "mediaSubtype": "webp",
1508
- "tags": ["Image vers Image", "Image", "API", "Transfert de Style"],
1545
+ "tags": ["Image vers image", "Image", "API"],
1509
1546
  "models": ["Runway"],
1510
1547
  "date": "2025-03-01",
1511
1548
  "OpenSource": false,
@@ -1514,11 +1551,11 @@
1514
1551
  },
1515
1552
  {
1516
1553
  "name": "api_stability_ai_stable_image_ultra_t2i",
1517
- "title": "Stability AI: Stable Image Ultra Text to Image",
1554
+ "title": "Stability AI: Stable Image Ultra Texte vers Image",
1518
1555
  "description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
1519
1556
  "mediaType": "image",
1520
1557
  "mediaSubtype": "webp",
1521
- "tags": ["Texte vers Image", "Image", "API"],
1558
+ "tags": ["Texte vers image", "Image", "API"],
1522
1559
  "models": ["Stability"],
1523
1560
  "date": "2025-03-01",
1524
1561
  "OpenSource": false,
@@ -1527,12 +1564,12 @@
1527
1564
  },
1528
1565
  {
1529
1566
  "name": "api_stability_ai_i2i",
1530
- "title": "Stability AI: Image to Image",
1567
+ "title": "Stability AI: Image vers Image",
1531
1568
  "description": "Transformer des images avec une génération de haute qualité en utilisant Stability AI, parfait pour l'édition professionnelle et le transfert de style.",
1532
1569
  "mediaType": "image",
1533
1570
  "thumbnailVariant": "compareSlider",
1534
1571
  "mediaSubtype": "webp",
1535
- "tags": ["Image vers Image", "Image", "API"],
1572
+ "tags": ["Image vers image", "Image", "API"],
1536
1573
  "models": ["Stability"],
1537
1574
  "date": "2025-03-01",
1538
1575
  "OpenSource": false,
@@ -1541,11 +1578,11 @@
1541
1578
  },
1542
1579
  {
1543
1580
  "name": "api_stability_ai_sd3.5_t2i",
1544
- "title": "Stability AI: SD3.5 Text to Image",
1581
+ "title": "Stability AI: SD3.5 Texte vers Image",
1545
1582
  "description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
1546
1583
  "mediaType": "image",
1547
1584
  "mediaSubtype": "webp",
1548
- "tags": ["Texte vers Image", "Image", "API"],
1585
+ "tags": ["Texte vers image", "Image", "API"],
1549
1586
  "models": ["Stability"],
1550
1587
  "date": "2025-03-01",
1551
1588
  "OpenSource": false,
@@ -1554,12 +1591,12 @@
1554
1591
  },
1555
1592
  {
1556
1593
  "name": "api_stability_ai_sd3.5_i2i",
1557
- "title": "Stability AI: SD3.5 Image to Image",
1594
+ "title": "Stability AI: SD3.5 Image vers Image",
1558
1595
  "description": "Générer des images de haute qualité avec un excellent respect des prompts. Parfait pour des cas d'utilisation professionnels à une résolution de 1 mégapixel.",
1559
1596
  "mediaType": "image",
1560
1597
  "thumbnailVariant": "compareSlider",
1561
1598
  "mediaSubtype": "webp",
1562
- "tags": ["Image vers Image", "Image", "API"],
1599
+ "tags": ["Image vers image", "Image", "API"],
1563
1600
  "models": ["Stability"],
1564
1601
  "date": "2025-03-01",
1565
1602
  "OpenSource": false,
@@ -1568,11 +1605,11 @@
1568
1605
  },
1569
1606
  {
1570
1607
  "name": "api_ideogram_v3_t2i",
1571
- "title": "Ideogram V3: Text to Image",
1608
+ "title": "Ideogram V3: Texte vers Image",
1572
1609
  "description": "Générer des images de qualité professionnelle avec un excellent alignement des prompts, du photoréalisme et un rendu de texte en utilisant Ideogram V3.",
1573
1610
  "mediaType": "image",
1574
1611
  "mediaSubtype": "webp",
1575
- "tags": ["Texte vers Image", "Image", "API", "Text Rendering"],
1612
+ "tags": ["Texte vers image", "Image", "API"],
1576
1613
  "models": ["Ideogram"],
1577
1614
  "date": "2025-03-01",
1578
1615
  "OpenSource": false,
@@ -1581,11 +1618,11 @@
1581
1618
  },
1582
1619
  {
1583
1620
  "name": "api_openai_image_1_t2i",
1584
- "title": "OpenAI: GPT-Image-1 Text to Image",
1621
+ "title": "OpenAI: GPT-Image-1 Texte vers Image",
1585
1622
  "description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI GPT Image 1.",
1586
1623
  "mediaType": "image",
1587
1624
  "mediaSubtype": "webp",
1588
- "tags": ["Texte vers Image", "Image", "API"],
1625
+ "tags": ["Texte vers image", "Image", "API"],
1589
1626
  "models": ["GPT-Image-1", "OpenAI"],
1590
1627
  "date": "2025-03-01",
1591
1628
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
@@ -1595,12 +1632,12 @@
1595
1632
  },
1596
1633
  {
1597
1634
  "name": "api_openai_image_1_i2i",
1598
- "title": "OpenAI: GPT-Image-1 Image to Image",
1635
+ "title": "OpenAI: GPT-Image-1 Image vers Image",
1599
1636
  "description": "Générer des images à partir d'images d'entrée en utilisant l'API OpenAI GPT Image 1.",
1600
1637
  "mediaType": "image",
1601
1638
  "mediaSubtype": "webp",
1602
1639
  "thumbnailVariant": "compareSlider",
1603
- "tags": ["Image vers Image", "Image", "API"],
1640
+ "tags": ["Image vers image", "Image", "API"],
1604
1641
  "models": ["GPT-Image-1"],
1605
1642
  "date": "2025-03-01",
1606
1643
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
@@ -1610,7 +1647,7 @@
1610
1647
  },
1611
1648
  {
1612
1649
  "name": "api_openai_image_1_inpaint",
1613
- "title": "OpenAI: GPT-Image-1 Inpaint",
1650
+ "title": "OpenAI: GPT-Image-1 Inpainting",
1614
1651
  "description": "Éditer des images en utilisant l'inpainting avec l'API OpenAI GPT Image 1.",
1615
1652
  "mediaType": "image",
1616
1653
  "mediaSubtype": "webp",
@@ -1625,12 +1662,12 @@
1625
1662
  },
1626
1663
  {
1627
1664
  "name": "api_openai_image_1_multi_inputs",
1628
- "title": "OpenAI: GPT-Image-1 Multi Inputs",
1665
+ "title": "OpenAI: GPT-Image-1 Multi Entrées",
1629
1666
  "description": "Générer des images à partir de plusieurs entrées en utilisant l'API OpenAI GPT Image 1.",
1630
1667
  "mediaType": "image",
1631
1668
  "mediaSubtype": "webp",
1632
1669
  "thumbnailVariant": "compareSlider",
1633
- "tags": ["Texte vers Image", "Image", "API", "Multi Input"],
1670
+ "tags": ["Texte vers image", "Image", "API"],
1634
1671
  "models": ["GPT-Image-1"],
1635
1672
  "date": "2025-03-01",
1636
1673
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
@@ -1640,11 +1677,11 @@
1640
1677
  },
1641
1678
  {
1642
1679
  "name": "api_openai_dall_e_2_t2i",
1643
- "title": "OpenAI: Dall-E 2 Text to Image",
1680
+ "title": "OpenAI: Dall-E 2 Texte vers Image",
1644
1681
  "description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI Dall-E 2.",
1645
1682
  "mediaType": "image",
1646
1683
  "mediaSubtype": "webp",
1647
- "tags": ["Texte vers Image", "Image", "API"],
1684
+ "tags": ["Texte vers image", "Image", "API"],
1648
1685
  "models": ["Dall-E", "OpenAI"],
1649
1686
  "date": "2025-03-01",
1650
1687
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/dall-e-2",
@@ -1654,7 +1691,7 @@
1654
1691
  },
1655
1692
  {
1656
1693
  "name": "api_openai_dall_e_2_inpaint",
1657
- "title": "OpenAI: Dall-E 2 Inpaint",
1694
+ "title": "OpenAI: Dall-E 2 Inpainting",
1658
1695
  "description": "Éditer des images en utilisant l'inpainting avec l'API OpenAI Dall-E 2.",
1659
1696
  "mediaType": "image",
1660
1697
  "mediaSubtype": "webp",
@@ -1669,11 +1706,11 @@
1669
1706
  },
1670
1707
  {
1671
1708
  "name": "api_openai_dall_e_3_t2i",
1672
- "title": "OpenAI: Dall-E 3 Text to Image",
1709
+ "title": "OpenAI: Dall-E 3 Texte vers Image",
1673
1710
  "description": "Générer des images à partir de prompts textuels en utilisant l'API OpenAI Dall-E 3.",
1674
1711
  "mediaType": "image",
1675
1712
  "mediaSubtype": "webp",
1676
- "tags": ["Texte vers Image", "Image", "API"],
1713
+ "tags": ["Texte vers image", "Image", "API"],
1677
1714
  "models": ["Dall-E", "OpenAI"],
1678
1715
  "date": "2025-03-01",
1679
1716
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/dall-e-3",
@@ -1688,15 +1725,15 @@
1688
1725
  "type": "video",
1689
1726
  "category": "CLOSED SOURCE MODELS",
1690
1727
  "icon": "icon-[lucide--film]",
1691
- "title": "API Vidéo",
1728
+ "title": "Video API",
1692
1729
  "templates": [
1693
1730
  {
1694
1731
  "name": "api_openai_sora_video",
1695
- "title": "Sora 2: Text & Image to Video",
1696
- "description": "OpenAI's Sora-2 and Sora-2 Pro video generation with synchronized audio.",
1732
+ "title": "Sora 2: Texte et Image vers Vidéo",
1733
+ "description": "Génération vidéo Sora-2 et Sora-2 Pro d'OpenAI avec audio synchronisé.",
1697
1734
  "mediaType": "image",
1698
1735
  "mediaSubtype": "webp",
1699
- "tags": ["Image to Video", "Text to Video", "API"],
1736
+ "tags": ["Image vers vidéo", "Texte vers vidéo", "API"],
1700
1737
  "models": ["OpenAI"],
1701
1738
  "date": "2025-10-08",
1702
1739
  "OpenSource": false,
@@ -1705,11 +1742,11 @@
1705
1742
  },
1706
1743
  {
1707
1744
  "name": "api_wan_text_to_video",
1708
- "title": "Wan2.5: Text to Video",
1709
- "description": "Generate videos with synchronized audio, enhanced motion, and superior quality.",
1745
+ "title": "Wan2.5: Texte vers Vidéo",
1746
+ "description": "Générez des vidéos avec audio synchronisé, mouvement amélioré et qualité supérieure.",
1710
1747
  "mediaType": "image",
1711
1748
  "mediaSubtype": "webp",
1712
- "tags": ["Image to Video", "Video", "API"],
1749
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1713
1750
  "models": ["Wan2.5"],
1714
1751
  "date": "2025-09-27",
1715
1752
  "tutorialUrl": "",
@@ -1719,11 +1756,11 @@
1719
1756
  },
1720
1757
  {
1721
1758
  "name": "api_wan_image_to_video",
1722
- "title": "Wan2.5: Image to Video",
1723
- "description": "Transform images into videos with synchronized audio, enhanced motion, and superior quality.",
1759
+ "title": "Wan2.5: Image vers Vidéo",
1760
+ "description": "Transformez des images en vidéos avec audio synchronisé, mouvement amélioré et qualité supérieure.",
1724
1761
  "mediaType": "image",
1725
1762
  "mediaSubtype": "webp",
1726
- "tags": ["Image to Video", "Video", "API"],
1763
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1727
1764
  "models": ["Wan2.5"],
1728
1765
  "date": "2025-09-27",
1729
1766
  "tutorialUrl": "",
@@ -1733,11 +1770,11 @@
1733
1770
  },
1734
1771
  {
1735
1772
  "name": "api_kling_i2v",
1736
- "title": "Kling: Image to Video",
1773
+ "title": "Kling: Image vers Vidéo",
1737
1774
  "description": "Générer des vidéos avec une excellente adhérence aux prompts pour les actions, expressions et mouvements de caméra en utilisant Kling.",
1738
1775
  "mediaType": "image",
1739
1776
  "mediaSubtype": "webp",
1740
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
1777
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1741
1778
  "models": ["Kling"],
1742
1779
  "date": "2025-03-01",
1743
1780
  "tutorialUrl": "",
@@ -1747,11 +1784,11 @@
1747
1784
  },
1748
1785
  {
1749
1786
  "name": "api_kling_effects",
1750
- "title": "Kling: Video Effects",
1787
+ "title": "Kling: Effets Vidéo",
1751
1788
  "description": "Générer des vidéos dynamiques en appliquant des effets visuels aux images en utilisant Kling.",
1752
1789
  "mediaType": "image",
1753
1790
  "mediaSubtype": "webp",
1754
- "tags": ["Effets Vidéo", "Vidéo", "API"],
1791
+ "tags": ["Vidéo", "API"],
1755
1792
  "models": ["Kling"],
1756
1793
  "date": "2025-03-01",
1757
1794
  "tutorialUrl": "",
@@ -1765,7 +1802,7 @@
1765
1802
  "description": "Générer des vidéos en contrôlant les première et dernière images.",
1766
1803
  "mediaType": "image",
1767
1804
  "mediaSubtype": "webp",
1768
- "tags": ["Génération de Vidéo", "Vidéo", "API", "Contrôle de Cadre"],
1805
+ "tags": ["Vidéo", "API", "FLF2V"],
1769
1806
  "models": ["Kling"],
1770
1807
  "date": "2025-03-01",
1771
1808
  "tutorialUrl": "",
@@ -1775,11 +1812,11 @@
1775
1812
  },
1776
1813
  {
1777
1814
  "name": "api_vidu_text_to_video",
1778
- "title": "Vidu: Text to Video",
1815
+ "title": "Vidu: Texte vers Vidéo",
1779
1816
  "description": "Générer des vidéos 1080p de haute qualité à partir de prompts textuels avec un contrôle ajustable de l'amplitude des mouvements et de la durée en utilisant le modèle AI avancé de Vidu.",
1780
1817
  "mediaType": "image",
1781
1818
  "mediaSubtype": "webp",
1782
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
1819
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
1783
1820
  "models": ["Vidu"],
1784
1821
  "date": "2025-08-23",
1785
1822
  "tutorialUrl": "",
@@ -1789,11 +1826,11 @@
1789
1826
  },
1790
1827
  {
1791
1828
  "name": "api_vidu_image_to_video",
1792
- "title": "Vidu: Image to Video",
1829
+ "title": "Vidu: Image vers Vidéo",
1793
1830
  "description": "Transformer des images statiques en vidéos 1080p dynamiques avec un contrôle précis du mouvement et une amplitude de mouvement personnalisable en utilisant Vidu.",
1794
1831
  "mediaType": "image",
1795
1832
  "mediaSubtype": "webp",
1796
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
1833
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1797
1834
  "models": ["Vidu"],
1798
1835
  "date": "2025-08-23",
1799
1836
  "tutorialUrl": "",
@@ -1803,11 +1840,11 @@
1803
1840
  },
1804
1841
  {
1805
1842
  "name": "api_vidu_reference_to_video",
1806
- "title": "Vidu: Reference to Video",
1843
+ "title": "Vidu: Référence vers Vidéo",
1807
1844
  "description": "Generate videos with consistent subjects using multiple reference images (up to 7) for character and style continuity across the video sequence.",
1808
1845
  "mediaType": "image",
1809
1846
  "mediaSubtype": "webp",
1810
- "tags": ["Référence vers Vidéo", "Vidéo", "API"],
1847
+ "tags": ["Vidéo", "Image vers vidéo", "API"],
1811
1848
  "models": ["Vidu"],
1812
1849
  "date": "2025-08-23",
1813
1850
  "tutorialUrl": "",
@@ -1817,11 +1854,11 @@
1817
1854
  },
1818
1855
  {
1819
1856
  "name": "api_vidu_start_end_to_video",
1820
- "title": "Vidu: Start End to Video",
1857
+ "title": "Vidu: Début-Fin vers Vidéo",
1821
1858
  "description": "Create smooth video transitions between defined start and end frames with natural motion interpolation and consistent visual quality.",
1822
1859
  "mediaType": "image",
1823
1860
  "mediaSubtype": "webp",
1824
- "tags": ["FLF2V", "Vidéo", "API"],
1861
+ "tags": ["Vidéo", "API", "FLF2V"],
1825
1862
  "models": ["Vidu"],
1826
1863
  "date": "2025-08-23",
1827
1864
  "tutorialUrl": "",
@@ -1831,11 +1868,11 @@
1831
1868
  },
1832
1869
  {
1833
1870
  "name": "api_bytedance_text_to_video",
1834
- "title": "ByteDance: Text to Video",
1835
- "description": "Generate high-quality videos directly from text prompts using ByteDance's Seedance model. Supports multiple resolutions and aspect ratios with natural motion and cinematic quality.",
1871
+ "title": "ByteDance: Texte vers Vidéo",
1872
+ "description": "Générez des vidéos de haute qualité directement à partir de prompts textuels avec le modèle Seedance de ByteDance. Prend en charge plusieurs résolutions et ratios d'aspect avec un mouvement naturel et une qualité cinématographique.",
1836
1873
  "mediaType": "image",
1837
1874
  "mediaSubtype": "webp",
1838
- "tags": ["Video", "API", "Text to Video"],
1875
+ "tags": ["Vidéo", "API", "Texte vers vidéo"],
1839
1876
  "models": ["ByteDance"],
1840
1877
  "date": "2025-10-6",
1841
1878
  "tutorialUrl": "",
@@ -1845,11 +1882,11 @@
1845
1882
  },
1846
1883
  {
1847
1884
  "name": "api_bytedance_image_to_video",
1848
- "title": "ByteDance: Image to Video",
1849
- "description": "Transform static images into dynamic videos using ByteDance's Seedance model. Analyzes image structure and generates natural motion with consistent visual style and coherent video sequences.",
1885
+ "title": "ByteDance: Image vers Vidéo",
1886
+ "description": "Transformez des images statiques en vidéos dynamiques avec le modèle Seedance de ByteDance. Analyse la structure de l'image et génère un mouvement naturel avec un style visuel cohérent et des séquences vidéo cohérentes.",
1850
1887
  "mediaType": "image",
1851
1888
  "mediaSubtype": "webp",
1852
- "tags": ["Video", "API", "Image to Video"],
1889
+ "tags": ["Vidéo", "API", "Image vers vidéo"],
1853
1890
  "models": ["ByteDance"],
1854
1891
  "date": "2025-10-6",
1855
1892
  "tutorialUrl": "",
@@ -1859,11 +1896,11 @@
1859
1896
  },
1860
1897
  {
1861
1898
  "name": "api_bytedance_flf2v",
1862
- "title": "ByteDance: Start End to Video",
1863
- "description": "Generate cinematic video transitions between start and end frames with fluid motion, scene consistency, and professional polish using ByteDance's Seedance model.",
1899
+ "title": "ByteDance: Début-Fin vers Vidéo",
1900
+ "description": "Générez des transitions vidéo cinématographiques entre les images de début et de fin avec un mouvement fluide, une cohérence de scène et une finition professionnelle avec le modèle Seedance de ByteDance.",
1864
1901
  "mediaType": "image",
1865
1902
  "mediaSubtype": "webp",
1866
- "tags": ["Video", "API", "FLF2V"],
1903
+ "tags": ["Vidéo", "API", "FLF2V"],
1867
1904
  "models": ["ByteDance"],
1868
1905
  "date": "2025-10-6",
1869
1906
  "tutorialUrl": "",
@@ -1873,11 +1910,11 @@
1873
1910
  },
1874
1911
  {
1875
1912
  "name": "api_luma_i2v",
1876
- "title": "Luma: Image to Video",
1913
+ "title": "Luma: Image vers Vidéo",
1877
1914
  "description": "Take static images and instantly create magical high quality animations.",
1878
1915
  "mediaType": "image",
1879
1916
  "mediaSubtype": "webp",
1880
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
1917
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1881
1918
  "models": ["Luma"],
1882
1919
  "date": "2025-03-01",
1883
1920
  "tutorialUrl": "",
@@ -1887,11 +1924,11 @@
1887
1924
  },
1888
1925
  {
1889
1926
  "name": "api_luma_t2v",
1890
- "title": "Luma: Text to Video",
1927
+ "title": "Luma: Texte vers Vidéo",
1891
1928
  "description": "High-quality videos can be generated using simple prompts.",
1892
1929
  "mediaType": "image",
1893
1930
  "mediaSubtype": "webp",
1894
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
1931
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
1895
1932
  "models": ["Luma"],
1896
1933
  "date": "2025-03-01",
1897
1934
  "tutorialUrl": "",
@@ -1901,11 +1938,11 @@
1901
1938
  },
1902
1939
  {
1903
1940
  "name": "api_moonvalley_text_to_video",
1904
- "title": "Moonvalley: Text to Video",
1941
+ "title": "Moonvalley: Texte vers Vidéo",
1905
1942
  "description": "Generate cinematic, 1080p videos from text prompts through a model trained exclusively on licensed data.",
1906
1943
  "mediaType": "image",
1907
1944
  "mediaSubtype": "webp",
1908
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
1945
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
1909
1946
  "models": ["Moonvalley"],
1910
1947
  "date": "2025-03-01",
1911
1948
  "tutorialUrl": "",
@@ -1915,11 +1952,11 @@
1915
1952
  },
1916
1953
  {
1917
1954
  "name": "api_moonvalley_image_to_video",
1918
- "title": "Moonvalley: Image to Video",
1955
+ "title": "Moonvalley: Image vers Vidéo",
1919
1956
  "description": "Generate cinematic, 1080p videos with an image through a model trained exclusively on licensed data.",
1920
1957
  "mediaType": "image",
1921
1958
  "mediaSubtype": "webp",
1922
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
1959
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1923
1960
  "models": ["Moonvalley"],
1924
1961
  "date": "2025-03-01",
1925
1962
  "tutorialUrl": "",
@@ -1929,12 +1966,12 @@
1929
1966
  },
1930
1967
  {
1931
1968
  "name": "api_moonvalley_video_to_video_motion_transfer",
1932
- "title": "Moonvalley: Motion Transfer",
1969
+ "title": "Moonvalley: Transfert de Mouvement",
1933
1970
  "description": "Apply motion from one video to another.",
1934
1971
  "mediaType": "image",
1935
1972
  "thumbnailVariant": "hoverDissolve",
1936
1973
  "mediaSubtype": "webp",
1937
- "tags": ["Vidéo vers Vidéo", "Vidéo", "API", "Transfert de Mouvement"],
1974
+ "tags": ["Vidéo vers vidéo", "Vidéo", "API"],
1938
1975
  "models": ["Moonvalley"],
1939
1976
  "date": "2025-03-01",
1940
1977
  "tutorialUrl": "",
@@ -1944,12 +1981,12 @@
1944
1981
  },
1945
1982
  {
1946
1983
  "name": "api_moonvalley_video_to_video_pose_control",
1947
- "title": "Moonvalley: Pose Control",
1984
+ "title": "Moonvalley: Contrôle de Pose",
1948
1985
  "description": "Apply human pose and movement from one video to another.",
1949
1986
  "mediaType": "image",
1950
1987
  "thumbnailVariant": "hoverDissolve",
1951
1988
  "mediaSubtype": "webp",
1952
- "tags": ["Vidéo vers Vidéo", "Vidéo", "API", "Contrôle de Pose"],
1989
+ "tags": ["Vidéo vers vidéo", "Vidéo", "API"],
1953
1990
  "models": ["Moonvalley"],
1954
1991
  "date": "2025-03-01",
1955
1992
  "tutorialUrl": "",
@@ -1959,11 +1996,11 @@
1959
1996
  },
1960
1997
  {
1961
1998
  "name": "api_hailuo_minimax_video",
1962
- "title": "MiniMax: Video",
1963
- "description": "Generate high-quality videos from text prompts with optional first-frame control using MiniMax Hailuo-02 model. Supports multiple resolutions (768P/1080P) and durations (6/10s) with intelligent prompt optimization.",
1999
+ "title": "MiniMax: Vidéo",
2000
+ "description": "Générez des vidéos de haute qualité à partir de prompts textuels avec contrôle optionnel de la première image en utilisant le modèle MiniMax Hailuo-02. Prend en charge plusieurs résolutions (768P/1080P) et durées (6/10s) avec optimisation intelligente des prompts.",
1964
2001
  "mediaType": "image",
1965
2002
  "mediaSubtype": "webp",
1966
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
2003
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
1967
2004
  "models": ["MiniMax"],
1968
2005
  "date": "2025-03-01",
1969
2006
  "tutorialUrl": "",
@@ -1973,11 +2010,11 @@
1973
2010
  },
1974
2011
  {
1975
2012
  "name": "api_hailuo_minimax_t2v",
1976
- "title": "MiniMax: Text to Video",
2013
+ "title": "MiniMax: Texte vers Vidéo",
1977
2014
  "description": "Generate high-quality videos directly from text prompts. Explore MiniMax's advanced AI capabilities to create diverse visual narratives with professional CGI effects and stylistic elements to bring your descriptions to life.",
1978
2015
  "mediaType": "image",
1979
2016
  "mediaSubtype": "webp",
1980
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
2017
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
1981
2018
  "models": ["MiniMax"],
1982
2019
  "date": "2025-03-01",
1983
2020
  "tutorialUrl": "",
@@ -1987,11 +2024,11 @@
1987
2024
  },
1988
2025
  {
1989
2026
  "name": "api_hailuo_minimax_i2v",
1990
- "title": "MiniMax: Image to Video",
2027
+ "title": "MiniMax: Image vers Vidéo",
1991
2028
  "description": "Generate refined videos from images and text with CGI integration using MiniMax.",
1992
2029
  "mediaType": "image",
1993
2030
  "mediaSubtype": "webp",
1994
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2031
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
1995
2032
  "models": ["MiniMax"],
1996
2033
  "date": "2025-03-01",
1997
2034
  "tutorialUrl": "",
@@ -2001,11 +2038,11 @@
2001
2038
  },
2002
2039
  {
2003
2040
  "name": "api_pixverse_i2v",
2004
- "title": "PixVerse: Image to Video",
2041
+ "title": "PixVerse: Image vers Vidéo",
2005
2042
  "description": "Generate dynamic videos from static images with motion and effects using PixVerse.",
2006
2043
  "mediaType": "image",
2007
2044
  "mediaSubtype": "webp",
2008
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2045
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2009
2046
  "models": ["PixVerse"],
2010
2047
  "date": "2025-03-01",
2011
2048
  "tutorialUrl": "",
@@ -2015,11 +2052,11 @@
2015
2052
  },
2016
2053
  {
2017
2054
  "name": "api_pixverse_template_i2v",
2018
- "title": "PixVerse Templates: Image to Video",
2055
+ "title": "PixVerse Templates: Image vers Vidéo",
2019
2056
  "description": "Generate dynamic videos from static images with motion and effects using PixVerse.",
2020
2057
  "mediaType": "image",
2021
2058
  "mediaSubtype": "webp",
2022
- "tags": ["Image vers Vidéo", "Vidéo", "API", "Modèles"],
2059
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2023
2060
  "models": ["PixVerse"],
2024
2061
  "date": "2025-03-01",
2025
2062
  "tutorialUrl": "",
@@ -2029,11 +2066,11 @@
2029
2066
  },
2030
2067
  {
2031
2068
  "name": "api_pixverse_t2v",
2032
- "title": "PixVerse: Text to Video",
2069
+ "title": "PixVerse: Texte vers Vidéo",
2033
2070
  "description": "Generate videos with accurate prompt interpretation and stunning video dynamics.",
2034
2071
  "mediaType": "image",
2035
2072
  "mediaSubtype": "webp",
2036
- "tags": ["Texte vers Vidéo", "Vidéo", "API"],
2073
+ "tags": ["Texte vers vidéo", "Vidéo", "API"],
2037
2074
  "models": ["PixVerse"],
2038
2075
  "date": "2025-03-01",
2039
2076
  "tutorialUrl": "",
@@ -2043,11 +2080,11 @@
2043
2080
  },
2044
2081
  {
2045
2082
  "name": "api_runway_gen3a_turbo_image_to_video",
2046
- "title": "Runway: Gen3a Turbo Image to Video",
2083
+ "title": "Runway: Gen3a Turbo Image vers Vidéo",
2047
2084
  "description": "Generate cinematic videos from static images using Runway Gen3a Turbo.",
2048
2085
  "mediaType": "image",
2049
2086
  "mediaSubtype": "webp",
2050
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2087
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2051
2088
  "models": ["Runway"],
2052
2089
  "date": "2025-03-01",
2053
2090
  "tutorialUrl": "",
@@ -2057,11 +2094,11 @@
2057
2094
  },
2058
2095
  {
2059
2096
  "name": "api_runway_gen4_turo_image_to_video",
2060
- "title": "Runway: Gen4 Turbo Image to Video",
2097
+ "title": "Runway: Gen4 Turbo Image vers Vidéo",
2061
2098
  "description": "Generate dynamic videos from images using Runway Gen4 Turbo.",
2062
2099
  "mediaType": "image",
2063
2100
  "mediaSubtype": "webp",
2064
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2101
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2065
2102
  "models": ["Runway"],
2066
2103
  "date": "2025-03-01",
2067
2104
  "tutorialUrl": "",
@@ -2071,11 +2108,11 @@
2071
2108
  },
2072
2109
  {
2073
2110
  "name": "api_runway_first_last_frame",
2074
- "title": "Runway: First Last Frame to Video",
2111
+ "title": "Runway: Première-Dernière Image vers Vidéo",
2075
2112
  "description": "Generate smooth video transitions between two keyframes with Runway's precision.",
2076
2113
  "mediaType": "image",
2077
2114
  "mediaSubtype": "webp",
2078
- "tags": ["Génération de Vidéo", "Vidéo", "API", "Contrôle de Cadre"],
2115
+ "tags": ["Vidéo", "API", "FLF2V"],
2079
2116
  "models": ["Runway"],
2080
2117
  "date": "2025-03-01",
2081
2118
  "tutorialUrl": "",
@@ -2085,11 +2122,11 @@
2085
2122
  },
2086
2123
  {
2087
2124
  "name": "api_pika_i2v",
2088
- "title": "Pika: Image to Video",
2125
+ "title": "Pika: Image vers Vidéo",
2089
2126
  "description": "Generate smooth animated videos from single static images using Pika AI.",
2090
2127
  "mediaType": "image",
2091
2128
  "mediaSubtype": "webp",
2092
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2129
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2093
2130
  "models": ["Pika"],
2094
2131
  "date": "2025-03-01",
2095
2132
  "tutorialUrl": "",
@@ -2099,11 +2136,11 @@
2099
2136
  },
2100
2137
  {
2101
2138
  "name": "api_pika_scene",
2102
- "title": "Pika Scenes: Images to Video",
2139
+ "title": "Pika Scenes: Images vers Vidéo",
2103
2140
  "description": "Generate videos that incorporate multiple input images using Pika Scenes.",
2104
2141
  "mediaType": "image",
2105
2142
  "mediaSubtype": "webp",
2106
- "tags": ["Image vers Vidéo", "Vidéo", "API", "Multi-Image"],
2143
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2107
2144
  "models": ["Pika"],
2108
2145
  "date": "2025-03-01",
2109
2146
  "tutorialUrl": "",
@@ -2113,11 +2150,11 @@
2113
2150
  },
2114
2151
  {
2115
2152
  "name": "api_veo2_i2v",
2116
- "title": "Veo2: Image to Video",
2153
+ "title": "Veo2: Image vers Vidéo",
2117
2154
  "description": "Generate videos from images using Google Veo2 API.",
2118
2155
  "mediaType": "image",
2119
2156
  "mediaSubtype": "webp",
2120
- "tags": ["Image vers Vidéo", "Vidéo", "API"],
2157
+ "tags": ["Image vers vidéo", "Vidéo", "API"],
2121
2158
  "models": ["Veo", "Google"],
2122
2159
  "date": "2025-03-01",
2123
2160
  "tutorialUrl": "",
@@ -2127,11 +2164,11 @@
2127
2164
  },
2128
2165
  {
2129
2166
  "name": "api_veo3",
2130
- "title": "Veo3: Image to Video",
2167
+ "title": "Veo3: Image vers Vidéo",
2131
2168
  "description": "Generate high-quality 8-second videos from text prompts or images using Google's advanced Veo 3 API. Features audio generation, prompt enhancement, and dual model options for speed or quality.",
2132
2169
  "mediaType": "image",
2133
2170
  "mediaSubtype": "webp",
2134
- "tags": ["Image vers Vidéo", "Texte vers Vidéo", "API"],
2171
+ "tags": ["Image vers vidéo", "Texte vers vidéo", "API"],
2135
2172
  "models": ["Veo", "Google"],
2136
2173
  "date": "2025-03-01",
2137
2174
  "tutorialUrl": "",
@@ -2146,15 +2183,15 @@
2146
2183
  "type": "image",
2147
2184
  "category": "CLOSED SOURCE MODELS",
2148
2185
  "icon": "icon-[lucide--box]",
2149
- "title": "API 3D",
2186
+ "title": "3D API",
2150
2187
  "templates": [
2151
2188
  {
2152
2189
  "name": "api_rodin_gen2",
2153
- "title": "Rodin: Gen-2 Image to Model",
2154
- "description": "Generate detailed 4X mesh quality 3D models from photos using Rodin Gen2",
2190
+ "title": "Rodin: Gen-2 Image vers Modèle",
2191
+ "description": "Générez des modèles 3D détaillés avec une qualité de maillage 4X à partir de photos avec Rodin Gen2",
2155
2192
  "mediaType": "image",
2156
2193
  "mediaSubtype": "webp",
2157
- "tags": ["Image to Model", "3D", "API"],
2194
+ "tags": ["Image vers 3D", "3D", "API"],
2158
2195
  "models": ["Rodin"],
2159
2196
  "date": "2025-09-27",
2160
2197
  "tutorialUrl": "",
@@ -2164,12 +2201,12 @@
2164
2201
  },
2165
2202
  {
2166
2203
  "name": "api_rodin_image_to_model",
2167
- "title": "Rodin: Image to Model",
2204
+ "title": "Rodin: Image vers Modèle",
2168
2205
  "description": "Generate detailed 3D models from single photos using Rodin AI.",
2169
2206
  "mediaType": "image",
2170
2207
  "thumbnailVariant": "compareSlider",
2171
2208
  "mediaSubtype": "webp",
2172
- "tags": ["Image vers Modèle", "3D", "API"],
2209
+ "tags": ["Image vers 3D", "3D", "API"],
2173
2210
  "models": ["Rodin"],
2174
2211
  "date": "2025-03-01",
2175
2212
  "tutorialUrl": "",
@@ -2179,12 +2216,12 @@
2179
2216
  },
2180
2217
  {
2181
2218
  "name": "api_rodin_multiview_to_model",
2182
- "title": "Rodin: Multiview to Model",
2219
+ "title": "Rodin: Multivue vers Modèle",
2183
2220
  "description": "Sculpt comprehensive 3D models using Rodin's multi-angle reconstruction.",
2184
2221
  "mediaType": "image",
2185
2222
  "thumbnailVariant": "compareSlider",
2186
2223
  "mediaSubtype": "webp",
2187
- "tags": ["Multivue vers Modèle", "3D", "API"],
2224
+ "tags": ["Image vers 3D", "3D", "API"],
2188
2225
  "models": ["Rodin"],
2189
2226
  "date": "2025-03-01",
2190
2227
  "tutorialUrl": "",
@@ -2194,11 +2231,11 @@
2194
2231
  },
2195
2232
  {
2196
2233
  "name": "api_tripo_text_to_model",
2197
- "title": "Tripo: Text to Model",
2234
+ "title": "Tripo: Texte vers Modèle",
2198
2235
  "description": "Craft 3D objects from descriptions with Tripo's text-driven modeling.",
2199
2236
  "mediaType": "image",
2200
2237
  "mediaSubtype": "webp",
2201
- "tags": ["Texte vers Modèle", "3D", "API"],
2238
+ "tags": ["Texte vers modèle", "3D", "API"],
2202
2239
  "models": ["Tripo"],
2203
2240
  "date": "2025-03-01",
2204
2241
  "tutorialUrl": "",
@@ -2208,12 +2245,12 @@
2208
2245
  },
2209
2246
  {
2210
2247
  "name": "api_tripo_image_to_model",
2211
- "title": "Tripo: Image to Model",
2248
+ "title": "Tripo: Image vers Modèle",
2212
2249
  "description": "Generate professional 3D assets from 2D images using Tripo engine.",
2213
2250
  "mediaType": "image",
2214
2251
  "thumbnailVariant": "compareSlider",
2215
2252
  "mediaSubtype": "webp",
2216
- "tags": ["Image vers Modèle", "3D", "API"],
2253
+ "tags": ["Image vers 3D", "3D", "API"],
2217
2254
  "models": ["Tripo"],
2218
2255
  "date": "2025-03-01",
2219
2256
  "tutorialUrl": "",
@@ -2223,12 +2260,12 @@
2223
2260
  },
2224
2261
  {
2225
2262
  "name": "api_tripo_multiview_to_model",
2226
- "title": "Tripo: Multiview to Model",
2263
+ "title": "Tripo: Multivue vers Modèle",
2227
2264
  "description": "Build 3D models from multiple angles with Tripo's advanced scanner.",
2228
2265
  "mediaType": "image",
2229
2266
  "thumbnailVariant": "compareSlider",
2230
2267
  "mediaSubtype": "webp",
2231
- "tags": ["Multivue vers Modèle", "3D", "API"],
2268
+ "tags": ["Image vers 3D", "3D", "API"],
2232
2269
  "models": ["Tripo"],
2233
2270
  "date": "2025-03-01",
2234
2271
  "tutorialUrl": "",
@@ -2243,7 +2280,7 @@
2243
2280
  "type": "audio",
2244
2281
  "category": "CLOSED SOURCE MODELS",
2245
2282
  "icon": "icon-[lucide--volume-2]",
2246
- "title": "API Audio",
2283
+ "title": "Audio API",
2247
2284
  "templates": [
2248
2285
  {
2249
2286
  "name": "api_stability_ai_text_to_audio",
@@ -2251,7 +2288,7 @@
2251
2288
  "description": "Générez de la musique à partir de texte avec Stable Audio 2.5. Créez des pistes de plusieurs minutes en quelques secondes.",
2252
2289
  "mediaType": "audio",
2253
2290
  "mediaSubtype": "mp3",
2254
- "tags": ["Texte vers Audio", "Audio", "API"],
2291
+ "tags": ["Texte vers audio", "Audio", "API"],
2255
2292
  "date": "2025-09-09",
2256
2293
  "models": ["Stability", "Stable Audio"],
2257
2294
  "OpenSource": false,
@@ -2264,7 +2301,7 @@
2264
2301
  "description": "Transformez de l'audio en de nouvelles compositions avec Stable Audio 2.5. Téléversez un audio et l'IA crée des pistes complètes.",
2265
2302
  "mediaType": "audio",
2266
2303
  "mediaSubtype": "mp3",
2267
- "tags": ["Audio vers Audio", "Audio", "API"],
2304
+ "tags": ["Audio vers audio", "Audio", "API"],
2268
2305
  "date": "2025-09-09",
2269
2306
  "models": ["Stability", "Stable Audio"],
2270
2307
  "OpenSource": false,
@@ -2277,7 +2314,7 @@
2277
2314
  "description": "Complétez ou prolongez des pistes audio avec Stable Audio 2.5. Téléversez un audio et l'IA génère le reste.",
2278
2315
  "mediaType": "audio",
2279
2316
  "mediaSubtype": "mp3",
2280
- "tags": ["Audio vers Audio", "Audio", "API"],
2317
+ "tags": ["Audio vers audio", "Audio", "API"],
2281
2318
  "date": "2025-09-09",
2282
2319
  "models": ["Stability", "Stable Audio"],
2283
2320
  "OpenSource": false,
@@ -2291,15 +2328,15 @@
2291
2328
  "type": "image",
2292
2329
  "category": "CLOSED SOURCE MODELS",
2293
2330
  "icon": "icon-[lucide--message-square-text]",
2294
- "title": "API LLM",
2331
+ "title": "LLM API",
2295
2332
  "templates": [
2296
2333
  {
2297
2334
  "name": "api_openai_chat",
2298
2335
  "title": "OpenAI: Chat",
2299
- "description": "Engage with OpenAI's advanced language models for intelligent conversations.",
2336
+ "description": "Interagissez avec les modèles de langage avancés d'OpenAI pour des conversations intelligentes.",
2300
2337
  "mediaType": "image",
2301
2338
  "mediaSubtype": "webp",
2302
- "tags": ["Chat", "LLM", "API"],
2339
+ "tags": ["LLM", "API"],
2303
2340
  "models": ["OpenAI"],
2304
2341
  "date": "2025-03-01",
2305
2342
  "tutorialUrl": "",
@@ -2310,10 +2347,10 @@
2310
2347
  {
2311
2348
  "name": "api_google_gemini",
2312
2349
  "title": "Google Gemini: Chat",
2313
- "description": "Experience Google's multimodal AI with Gemini's reasoning capabilities.",
2350
+ "description": "Découvrez l'IA multimodale de Google avec les capacités de raisonnement de Gemini.",
2314
2351
  "mediaType": "image",
2315
2352
  "mediaSubtype": "webp",
2316
- "tags": ["Chat", "LLM", "API"],
2353
+ "tags": ["LLM", "API"],
2317
2354
  "models": ["Google Gemini", "Google"],
2318
2355
  "date": "2025-03-01",
2319
2356
  "tutorialUrl": "",