comfyui-workflow-templates 0.1.95__py3-none-any.whl → 0.1.97__py3-none-any.whl

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of comfyui-workflow-templates might be problematic. Click here for more details.

Files changed (151) hide show
  1. comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed-1.webp +0 -0
  2. comfyui_workflow_templates/templates/01_qwen_t2i_subgraphed.json +1288 -0
  3. comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed-1.webp +0 -0
  4. comfyui_workflow_templates/templates/02_qwen_Image_edit_subgraphed.json +1754 -0
  5. comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed-1.webp +0 -0
  6. comfyui_workflow_templates/templates/03_video_wan2_2_14B_i2v_subgraphed.json +1416 -0
  7. comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed-1.webp +0 -0
  8. comfyui_workflow_templates/templates/04_hunyuan_3d_2.1_subgraphed.json +850 -0
  9. comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed-1.webp +0 -0
  10. comfyui_workflow_templates/templates/05_audio_ace_step_1_t2a_song_subgraphed.json +1014 -0
  11. comfyui_workflow_templates/templates/2_pass_pose_worship.json +551 -139
  12. comfyui_workflow_templates/templates/3d_hunyuan3d-v2.1.json +8 -8
  13. comfyui_workflow_templates/templates/3d_hunyuan3d_image_to_model.json +176 -284
  14. comfyui_workflow_templates/templates/3d_hunyuan3d_multiview_to_model.json +131 -133
  15. comfyui_workflow_templates/templates/3d_hunyuan3d_multiview_to_model_turbo.json +84 -86
  16. comfyui_workflow_templates/templates/ByteDance-Seedance_00003_.json +210 -0
  17. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_max_image.json +73 -14
  18. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_multiple_images_input.json +86 -23
  19. comfyui_workflow_templates/templates/api_bfl_flux_1_kontext_pro_image.json +145 -86
  20. comfyui_workflow_templates/templates/api_bfl_flux_pro_t2i.json +78 -78
  21. comfyui_workflow_templates/templates/api_bytedance_flf2v.json +86 -86
  22. comfyui_workflow_templates/templates/api_bytedance_image_to_video.json +36 -36
  23. comfyui_workflow_templates/templates/api_bytedance_seedream4.json +227 -222
  24. comfyui_workflow_templates/templates/api_google_gemini_image.json +113 -47
  25. comfyui_workflow_templates/templates/api_hailuo_minimax_i2v.json +52 -42
  26. comfyui_workflow_templates/templates/api_hailuo_minimax_video.json +10 -4
  27. comfyui_workflow_templates/templates/api_ideogram_v3_t2i.json +50 -48
  28. comfyui_workflow_templates/templates/api_kling_effects.json +34 -9
  29. comfyui_workflow_templates/templates/api_kling_flf.json +68 -39
  30. comfyui_workflow_templates/templates/api_kling_i2v.json +35 -9
  31. comfyui_workflow_templates/templates/api_luma_i2v.json +124 -110
  32. comfyui_workflow_templates/templates/api_luma_photon_i2i.json +64 -25
  33. comfyui_workflow_templates/templates/api_luma_photon_style_ref.json +210 -60
  34. comfyui_workflow_templates/templates/api_moonvalley_image_to_video.json +40 -41
  35. comfyui_workflow_templates/templates/api_moonvalley_video_to_video_motion_transfer.json +10 -11
  36. comfyui_workflow_templates/templates/api_moonvalley_video_to_video_pose_control.json +36 -37
  37. comfyui_workflow_templates/templates/api_openai_dall_e_2_inpaint.json +47 -11
  38. comfyui_workflow_templates/templates/api_openai_image_1_i2i.json +37 -8
  39. comfyui_workflow_templates/templates/api_openai_image_1_inpaint.json +29 -29
  40. comfyui_workflow_templates/templates/api_openai_image_1_multi_inputs.json +56 -13
  41. comfyui_workflow_templates/templates/api_openai_image_1_t2i.json +28 -28
  42. comfyui_workflow_templates/templates/api_openai_sora_video.json +203 -162
  43. comfyui_workflow_templates/templates/api_pika_i2v.json +29 -29
  44. comfyui_workflow_templates/templates/api_pika_scene.json +9 -9
  45. comfyui_workflow_templates/templates/api_pixverse_i2v.json +58 -58
  46. comfyui_workflow_templates/templates/api_pixverse_template_i2v.json +4 -4
  47. comfyui_workflow_templates/templates/api_recraft_image_gen_with_color_control.json +168 -73
  48. comfyui_workflow_templates/templates/api_rodin_gen2.json +156 -152
  49. comfyui_workflow_templates/templates/api_rodin_image_to_model.json +287 -247
  50. comfyui_workflow_templates/templates/api_rodin_multiview_to_model.json +7 -7
  51. comfyui_workflow_templates/templates/api_runway_first_last_frame.json +44 -44
  52. comfyui_workflow_templates/templates/api_runway_gen3a_turbo_image_to_video.json +29 -29
  53. comfyui_workflow_templates/templates/api_runway_gen4_turo_image_to_video.json +40 -40
  54. comfyui_workflow_templates/templates/api_runway_reference_to_image.json +84 -45
  55. comfyui_workflow_templates/templates/api_runway_text_to_image.json +40 -40
  56. comfyui_workflow_templates/templates/api_stability_ai_audio_inpaint.json +59 -83
  57. comfyui_workflow_templates/templates/api_stability_ai_audio_to_audio.json +43 -46
  58. comfyui_workflow_templates/templates/api_stability_ai_i2i.json +39 -14
  59. comfyui_workflow_templates/templates/api_stability_ai_sd3.5_i2i.json +54 -8
  60. comfyui_workflow_templates/templates/api_stability_ai_sd3.5_t2i.json +44 -44
  61. comfyui_workflow_templates/templates/api_stability_ai_stable_image_ultra_t2i.json +28 -28
  62. comfyui_workflow_templates/templates/api_tripo_image_to_model.json +4 -4
  63. comfyui_workflow_templates/templates/api_tripo_multiview_to_model.json +89 -89
  64. comfyui_workflow_templates/templates/api_veo2_i2v.json +3 -3
  65. comfyui_workflow_templates/templates/api_veo3.json +90 -84
  66. comfyui_workflow_templates/templates/api_vidu_image_to_video.json +37 -9
  67. comfyui_workflow_templates/templates/api_vidu_reference_to_video.json +86 -19
  68. comfyui_workflow_templates/templates/api_vidu_start_end_to_video.json +14 -6
  69. comfyui_workflow_templates/templates/api_wan_image_to_video.json +73 -73
  70. comfyui_workflow_templates/templates/audio_ace_step_1_m2m_editing.json +152 -329
  71. comfyui_workflow_templates/templates/audio_ace_step_1_t2a_instrumentals.json +207 -398
  72. comfyui_workflow_templates/templates/audio_ace_step_1_t2a_song.json +167 -378
  73. comfyui_workflow_templates/templates/audio_stable_audio_example.json +156 -118
  74. comfyui_workflow_templates/templates/controlnet_example.json +110 -122
  75. comfyui_workflow_templates/templates/default.json +329 -139
  76. comfyui_workflow_templates/templates/depth_controlnet.json +463 -206
  77. comfyui_workflow_templates/templates/depth_t2i_adapter.json +1522 -236
  78. comfyui_workflow_templates/templates/flux1_dev_uso_reference_image_gen.json +383 -354
  79. comfyui_workflow_templates/templates/flux_canny_model_example.json +576 -268
  80. comfyui_workflow_templates/templates/flux_depth_lora_example.json +1234 -213
  81. comfyui_workflow_templates/templates/flux_fill_inpaint_example.json +553 -250
  82. comfyui_workflow_templates/templates/flux_fill_outpaint_example.json +556 -228
  83. comfyui_workflow_templates/templates/flux_kontext_dev_basic.json +104 -109
  84. comfyui_workflow_templates/templates/flux_redux_model_example-1.webp +0 -0
  85. comfyui_workflow_templates/templates/flux_redux_model_example.json +609 -557
  86. comfyui_workflow_templates/templates/hidream_e1_1.json +5 -5
  87. comfyui_workflow_templates/templates/hidream_e1_full.json +5 -5
  88. comfyui_workflow_templates/templates/image2image-1.webp +0 -0
  89. comfyui_workflow_templates/templates/image2image-2.webp +0 -0
  90. comfyui_workflow_templates/templates/image2image.json +203 -201
  91. comfyui_workflow_templates/templates/image_flux.1_fill_dev_OneReward.json +178 -162
  92. comfyui_workflow_templates/templates/image_lotus_depth_v1_1.json +4 -4
  93. comfyui_workflow_templates/templates/image_omnigen2_image_edit.json +347 -341
  94. comfyui_workflow_templates/templates/image_qwen_image_controlnet_patch.json +71 -70
  95. comfyui_workflow_templates/templates/image_qwen_image_edit.json +199 -199
  96. comfyui_workflow_templates/templates/image_qwen_image_edit_2509.json +401 -401
  97. comfyui_workflow_templates/templates/image_qwen_image_instantx_controlnet.json +72 -71
  98. comfyui_workflow_templates/templates/image_qwen_image_instantx_inpainting_controlnet.json +1675 -850
  99. comfyui_workflow_templates/templates/image_qwen_image_union_control_lora.json +190 -189
  100. comfyui_workflow_templates/templates/image_to_video.json +64 -64
  101. comfyui_workflow_templates/templates/image_to_video_wan.json +163 -140
  102. comfyui_workflow_templates/templates/index.ar.json +2357 -0
  103. comfyui_workflow_templates/templates/index.es.json +182 -145
  104. comfyui_workflow_templates/templates/index.fr.json +348 -311
  105. comfyui_workflow_templates/templates/index.ja.json +229 -192
  106. comfyui_workflow_templates/templates/index.json +63 -26
  107. comfyui_workflow_templates/templates/index.ko.json +183 -146
  108. comfyui_workflow_templates/templates/index.ru.json +222 -185
  109. comfyui_workflow_templates/templates/index.tr.json +2357 -0
  110. comfyui_workflow_templates/templates/index.tr_translated.json +2357 -0
  111. comfyui_workflow_templates/templates/index.zh-TW.json +278 -241
  112. comfyui_workflow_templates/templates/index.zh.json +235 -198
  113. comfyui_workflow_templates/templates/inpaint_example.json +22 -19
  114. comfyui_workflow_templates/templates/inpaint_model_outpainting.json +23 -20
  115. comfyui_workflow_templates/templates/ltxv_image_to_video-1.webp +0 -0
  116. comfyui_workflow_templates/templates/ltxv_image_to_video.json +367 -337
  117. comfyui_workflow_templates/templates/mixing_controlnets.json +422 -373
  118. comfyui_workflow_templates/templates/sd3.5_large_blur.json +14 -14
  119. comfyui_workflow_templates/templates/sd3.5_large_canny_controlnet_example.json +615 -258
  120. comfyui_workflow_templates/templates/sd3.5_large_depth.json +1317 -210
  121. comfyui_workflow_templates/templates/sdxl_revision_text_prompts.json +619 -256
  122. comfyui_workflow_templates/templates/video_humo.json +194 -194
  123. comfyui_workflow_templates/templates/video_wan2.1_fun_camera_v1.1_1.3B.json +30 -30
  124. comfyui_workflow_templates/templates/video_wan2.1_fun_camera_v1.1_14B.json +97 -152
  125. comfyui_workflow_templates/templates/video_wan2_2_14B_animate.json +5 -5
  126. comfyui_workflow_templates/templates/video_wan2_2_14B_flf2v.json +121 -121
  127. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_camera.json +67 -67
  128. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_control.json +380 -358
  129. comfyui_workflow_templates/templates/video_wan2_2_14B_fun_inpaint.json +111 -111
  130. comfyui_workflow_templates/templates/video_wan2_2_14B_i2v.json +58 -58
  131. comfyui_workflow_templates/templates/video_wan2_2_14B_s2v.json +216 -216
  132. comfyui_workflow_templates/templates/video_wan2_2_5B_fun_control.json +222 -202
  133. comfyui_workflow_templates/templates/video_wan2_2_5B_fun_inpaint.json +27 -27
  134. comfyui_workflow_templates/templates/video_wan_ati.json +5 -5
  135. comfyui_workflow_templates/templates/video_wan_vace_14B_ref2v.json +100 -100
  136. comfyui_workflow_templates/templates/video_wan_vace_14B_v2v.json +87 -105
  137. comfyui_workflow_templates/templates/video_wan_vace_flf2v.json +149 -149
  138. comfyui_workflow_templates/templates/video_wan_vace_inpainting.json +235 -243
  139. comfyui_workflow_templates/templates/video_wan_vace_outpainting.json +67 -124
  140. comfyui_workflow_templates/templates/wan2.1_flf2v_720_f16.json +32 -32
  141. comfyui_workflow_templates/templates/wan2.1_fun_control.json +183 -138
  142. comfyui_workflow_templates/templates/wan2.1_fun_inp.json +62 -62
  143. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/METADATA +1 -1
  144. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/RECORD +147 -136
  145. comfyui_workflow_templates/templates/sdxl_revision_zero_positive-1.webp +0 -0
  146. comfyui_workflow_templates/templates/sdxl_revision_zero_positive.json +0 -496
  147. comfyui_workflow_templates/templates/stable_zero123_example-1.webp +0 -0
  148. comfyui_workflow_templates/templates/stable_zero123_example.json +0 -273
  149. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/WHEEL +0 -0
  150. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/licenses/LICENSE +0 -0
  151. {comfyui_workflow_templates-0.1.95.dist-info → comfyui_workflow_templates-0.1.97.dist-info}/top_level.txt +0 -0
@@ -3,8 +3,68 @@
3
3
  "moduleName": "default",
4
4
  "type": "image",
5
5
  "isEssential": true,
6
- "title": "기초",
6
+ "title": "Getting Started",
7
7
  "templates": [
8
+ {
9
+ "name": "01_qwen_t2i_subgraphed",
10
+ "title": "Qwen-Image Text to Image",
11
+ "mediaType": "image",
12
+ "mediaSubtype": "webp",
13
+ "description": "Generate images with exceptional multilingual text rendering and editing capabilities using Qwen-Image's 20B MMDiT model..",
14
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
15
+ "tags": ["텍스트에서 이미지", "이미지"],
16
+ "models": ["Qwen-Image"],
17
+ "date": "2025-10-17",
18
+ "size": 29.59
19
+ },
20
+ {
21
+ "name": "02_qwen_Image_edit_subgraphed",
22
+ "title": "Qwen Image Edit 2509",
23
+ "mediaType": "image",
24
+ "mediaSubtype": "webp",
25
+ "description": "Advanced image editing with multi-image support, improved consistency, and ControlNet integration.",
26
+ "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
27
+ "tags": ["이미지에서 이미지", "이미지 편집", "ControlNet"],
28
+ "models": ["Qwen-Image"],
29
+ "date": "2025-10-17",
30
+ "size": 29.59
31
+ },
32
+ {
33
+ "name": "03_video_wan2_2_14B_i2v_subgraphed",
34
+ "title": "Wan 2.2 14B Image to Video",
35
+ "description": "Transform static images into dynamic videos with precise motion control and style preservation using Wan 2.2.",
36
+ "mediaType": "image",
37
+ "mediaSubtype": "webp",
38
+ "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
39
+ "tags": ["이미지에서 비디오", "비디오"],
40
+ "models": ["Wan2.2", "Wan"],
41
+ "date": "2025-10-17",
42
+ "size": 35.42
43
+ },
44
+ {
45
+ "name": "04_hunyuan_3d_2.1_subgraphed",
46
+ "title": "Hunyuan3D 2.1: image to 3D",
47
+ "mediaType": "image",
48
+ "mediaSubtype": "webp",
49
+ "description": "Generate 3D models from single images using Hunyuan3D 2.0.",
50
+ "tags": ["이미지에서 3D", "3D"],
51
+ "models": ["Hunyuan3D"],
52
+ "date": "2025-10-17",
53
+ "tutorialUrl": "https://docs.comfy.org/tutorials/3d/hunyuan3D-2",
54
+ "size": 4.59
55
+ },
56
+ {
57
+ "name": "05_audio_ace_step_1_t2a_song_subgraphed",
58
+ "title": "ACE Step v1 Text to Song",
59
+ "mediaType": "image",
60
+ "mediaSubtype": "webp",
61
+ "description": "Generate songs with vocals from text prompts using ACE-Step v1, supporting multilingual and style customization.",
62
+ "tags": ["텍스트에서 오디오", "오디오"],
63
+ "models": ["ACE-Step"],
64
+ "date": "2025-10-17",
65
+ "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
66
+ "size": 7.17
67
+ },
8
68
  {
9
69
  "name": "default",
10
70
  "title": "이미지 생성",
@@ -29,7 +89,8 @@
29
89
  "models": ["SD1.5", "Stability"],
30
90
  "date": "2025-03-01",
31
91
  "size": 1.99,
32
- "vram": 2.88
92
+ "vram": 2.88,
93
+ "thumbnailVariant": "hoverDissolve"
33
94
  },
34
95
  {
35
96
  "name": "lora",
@@ -51,7 +112,7 @@
51
112
  "mediaSubtype": "webp",
52
113
  "description": "여러 LoRA 모델을 결합하여 이미지를 생성합니다.",
53
114
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/lora",
54
- "tags": ["텍스트에서 이미지", "이미지", "LoRA"],
115
+ "tags": ["텍스트에서 이미지", "이미지"],
55
116
  "models": ["SD1.5", "Stability"],
56
117
  "date": "2025-03-01",
57
118
  "size": 2.27,
@@ -65,7 +126,7 @@
65
126
  "description": "이미지의 특정 부분을 매끄럽게 편집합니다.",
66
127
  "thumbnailVariant": "compareSlider",
67
128
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
68
- "tags": ["인페인트", "이미지"],
129
+ "tags": ["인페인팅", "이미지"],
69
130
  "models": ["SD1.5", "Stability"],
70
131
  "date": "2025-03-01",
71
132
  "size": 4.86,
@@ -79,7 +140,7 @@
79
140
  "description": "이미지를 원래 경계 너머로 확장합니다.",
80
141
  "thumbnailVariant": "compareSlider",
81
142
  "tutorialUrl": "https://docs.comfy.org/tutorials/basic/inpaint",
82
- "tags": ["아웃페인트", "이미지"],
143
+ "tags": ["아웃페인팅", "이미지"],
83
144
  "models": ["SD1.5", "Stability"],
84
145
  "date": "2025-03-01",
85
146
  "size": 4.86,
@@ -92,7 +153,7 @@
92
153
  "mediaSubtype": "webp",
93
154
  "description": "일관된 스타일을 위해 텍스트 반전을 사용하여 이미지를 생성합니다.",
94
155
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/",
95
- "tags": ["임베딩", "이미지"],
156
+ "tags": ["텍스트에서 이미지", "이미지"],
96
157
  "models": ["SD1.5", "Stability"],
97
158
  "date": "2025-03-01",
98
159
  "size": 4.86,
@@ -105,7 +166,7 @@
105
166
  "mediaSubtype": "webp",
106
167
  "description": "텍스트 상자를 사용하여 정밀한 객체 배치로 이미지를 생성합니다.",
107
168
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/gligen/",
108
- "tags": ["Gligen", "이미지"],
169
+ "tags": ["이미지"],
109
170
  "models": ["SD1.5", "Stability"],
110
171
  "date": "2025-03-01",
111
172
  "size": 2.77,
@@ -117,7 +178,7 @@
117
178
  "mediaType": "image",
118
179
  "mediaSubtype": "webp",
119
180
  "description": "정의된 영역으로 구성 조절하여 이미지를 생성합니다.",
120
- "tags": ["영역 구성", "이미지"],
181
+ "tags": ["텍스트에서 이미지", "이미지"],
121
182
  "models": ["SD1.5", "Stability"],
122
183
  "date": "2025-03-01",
123
184
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/",
@@ -130,7 +191,7 @@
130
191
  "mediaType": "image",
131
192
  "mediaSubtype": "webp",
132
193
  "description": "영역 구성으로 일관된 주제 배치로 이미지를 생성합니다.",
133
- "tags": ["영역 구성", "이미지"],
194
+ "tags": ["텍스트에서 이미지", "이미지"],
134
195
  "models": ["SD1.5", "Stability"],
135
196
  "date": "2025-03-01",
136
197
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/area_composition/#increasing-consistency-of-images-with-area-composition",
@@ -228,7 +289,7 @@
228
289
  "mediaSubtype": "webp",
229
290
  "description": "ControlNet을 사용하여 깊이 정보로 안내된 이미지를 생성합니다.",
230
291
  "thumbnailVariant": "hoverDissolve",
231
- "tags": ["ControlNet", "이미지"],
292
+ "tags": ["ControlNet", "이미지", "텍스트에서 이미지"],
232
293
  "models": ["SD1.5", "Stability"],
233
294
  "date": "2025-03-01",
234
295
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
@@ -242,7 +303,7 @@
242
303
  "mediaSubtype": "webp",
243
304
  "description": "T2I 어댑터를 사용하여 깊이 정보로 안내된 이미지를 생성합니다.",
244
305
  "thumbnailVariant": "hoverDissolve",
245
- "tags": ["T2I 어댑터", "이미지"],
306
+ "tags": ["ControlNet", "이미지", "텍스트에서 이미지"],
246
307
  "models": ["SD1.5", "Stability"],
247
308
  "date": "2025-03-01",
248
309
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#t2i-adapter-vs-controlnets",
@@ -256,7 +317,7 @@
256
317
  "mediaSubtype": "webp",
257
318
  "description": "여러 ControlNet 모델을 결합하여 이미지를 생성합니다.",
258
319
  "thumbnailVariant": "hoverDissolve",
259
- "tags": ["ControlNet", "이미지"],
320
+ "tags": ["ControlNet", "이미지", "텍스트에서 이미지"],
260
321
  "models": ["SD1.5", "Stability"],
261
322
  "date": "2025-03-01",
262
323
  "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/controlnet/#mixing-controlnets",
@@ -270,7 +331,7 @@
270
331
  "type": "image",
271
332
  "category": "GENERATION TYPE",
272
333
  "icon": "icon-[lucide--image]",
273
- "title": "이미지",
334
+ "title": "Image",
274
335
  "templates": [
275
336
  {
276
337
  "name": "image_qwen_image",
@@ -298,12 +359,12 @@
298
359
  },
299
360
  {
300
361
  "name": "image_qwen_image_instantx_inpainting_controlnet",
301
- "title": "Qwen-Image InstantX Inpainting ControlNet",
362
+ "title": "Qwen-Image InstantX 인페인팅 ControlNet",
302
363
  "mediaType": "image",
303
364
  "mediaSubtype": "webp",
304
365
  "thumbnailVariant": "compareSlider",
305
- "description": "Professional inpainting and image editing with Qwen-Image InstantX ControlNet. Supports object replacement, text modification, background changes, and outpainting.",
306
- "tags": ["Image to Image", "Image", "ControlNet", "Inpainting"],
366
+ "description": "Qwen-Image InstantX ControlNet을 사용한 전문적인 인페인팅 이미지 편집. 객체 교체, 텍스트 수정, 배경 변경, 아웃페인팅 지원.",
367
+ "tags": ["이미지에서 이미지", "이미지", "ControlNet", "인페인팅"],
307
368
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image",
308
369
  "models": ["Qwen-Image"],
309
370
  "date": "2025-09-12",
@@ -336,13 +397,13 @@
336
397
  },
337
398
  {
338
399
  "name": "image_qwen_image_edit_2509",
339
- "title": "Qwen Image Edit 2509",
400
+ "title": "Qwen 이미지 편집 2509",
340
401
  "mediaType": "image",
341
402
  "mediaSubtype": "webp",
342
403
  "thumbnailVariant": "compareSlider",
343
- "description": "Advanced image editing with multi-image support, improved consistency, and ControlNet integration.",
404
+ "description": "다중 이미지 지원, 향상된 일관성 ControlNet 통합을 갖춘 고급 이미지 편집.",
344
405
  "tutorialUrl": "https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit",
345
- "tags": ["Image to Image", "Image Edit", "Multi-Image", "ControlNet"],
406
+ "tags": ["이미지에서 이미지", "이미지 편집", "ControlNet"],
346
407
  "models": ["Qwen-Image"],
347
408
  "date": "2025-09-25",
348
409
  "size": 29.59
@@ -376,11 +437,11 @@
376
437
  },
377
438
  {
378
439
  "name": "image_chroma1_radiance_text_to_image",
379
- "title": "Chroma1 Radiance text to image",
440
+ "title": "Chroma1 Radiance 텍스트에서 이미지로",
380
441
  "mediaType": "image",
381
442
  "mediaSubtype": "webp",
382
- "description": "Chroma1-Radiance works directly with image pixels instead of compressed latents, delivering higher quality images with reduced artifacts and distortion.",
383
- "tags": ["Text to Image", "Image"],
443
+ "description": "Chroma1-Radiance 압축된 잠재 변수 대신 이미지 픽셀을 직접 처리하여 아티팩트와 왜곡이 줄어든 고품질 이미지를 제공합니다.",
444
+ "tags": ["텍스트에서 이미지", "이미지"],
384
445
  "models": ["Chroma"],
385
446
  "date": "2025-09-18",
386
447
  "size": 22.0,
@@ -388,11 +449,11 @@
388
449
  },
389
450
  {
390
451
  "name": "image_netayume_lumina_t2i",
391
- "title": "NetaYume Lumina Text to Image",
452
+ "title": "NetaYume Lumina 텍스트에서 이미지로",
392
453
  "mediaType": "image",
393
454
  "mediaSubtype": "webp",
394
- "description": "High-quality anime-style image generation with enhanced character understanding and detailed textures. Fine-tuned from Neta Lumina on Danbooru dataset.",
395
- "tags": ["Text to Image", "Image", "Anime"],
455
+ "description": "향상된 캐릭터 이해와 세밀한 텍스처를 갖춘 고품질 애니메이션 스타일 이미지 생성. Danbooru 데이터셋에서 Neta Lumina로부터 미세 조정.",
456
+ "tags": ["텍스트에서 이미지", "이미지", "애니메이션"],
396
457
  "models": ["NetaYume Lumina"],
397
458
  "date": "2025-10-10",
398
459
  "size": 9.89
@@ -416,7 +477,7 @@
416
477
  "mediaSubtype": "webp",
417
478
  "thumbnailVariant": "compareSlider",
418
479
  "description": "Supports various tasks such as image inpainting, outpainting, and object removal",
419
- "tags": ["Inpainting", "Outpainting"],
480
+ "tags": ["인페인팅", "아웃페인팅"],
420
481
  "models": ["Flux"],
421
482
  "date": "2025-09-21",
422
483
  "size": 27.01,
@@ -442,7 +503,7 @@
442
503
  "thumbnailVariant": "hoverDissolve",
443
504
  "mediaType": "image",
444
505
  "mediaSubtype": "webp",
445
- "tags": ["Image to Image", "Image"],
506
+ "tags": ["이미지에서 이미지", "이미지"],
446
507
  "models": ["Flux"],
447
508
  "date": "2025-09-02",
448
509
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-uso",
@@ -469,7 +530,7 @@
469
530
  "mediaSubtype": "webp",
470
531
  "description": "포토리얼리즘을 극대화한 파인튜닝된 FLUX 모델",
471
532
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux1-krea-dev",
472
- "tags": ["텍스트에서 이미지", "이미지", "포토리얼리즘"],
533
+ "tags": ["텍스트에서 이미지", "이미지"],
473
534
  "models": ["Flux"],
474
535
  "date": "2025-07-31",
475
536
  "size": 20.74,
@@ -508,7 +569,7 @@
508
569
  "description": "Flux 인페인트를 사용하여 이미지의 누락된 부분을 채웁니다.",
509
570
  "thumbnailVariant": "compareSlider",
510
571
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
511
- "tags": ["이미지에서 이미지", "인페인트", "이미지"],
572
+ "tags": ["이미지에서 이미지", "인페인팅", "이미지"],
512
573
  "models": ["Flux"],
513
574
  "date": "2025-03-01",
514
575
  "size": 9.66
@@ -521,7 +582,7 @@
521
582
  "description": "Flux 아웃페인트를 사용하여 경계 너머로 이미지를 확장합니다.",
522
583
  "thumbnailVariant": "compareSlider",
523
584
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-fill-dev",
524
- "tags": ["아웃페인트", "이미지", "이미지에서 이미지"],
585
+ "tags": ["아웃페인팅", "이미지", "이미지에서 이미지"],
525
586
  "models": ["Flux"],
526
587
  "date": "2025-03-01",
527
588
  "size": 9.66
@@ -547,7 +608,7 @@
547
608
  "description": "Flux LoRA를 사용하여 깊이 정보로 안내된 이미지를 생성합니다.",
548
609
  "thumbnailVariant": "hoverDissolve",
549
610
  "tutorialUrl": "ttps://docs.comfy.org/tutorials/flux/flux-1-controlnet",
550
- "tags": ["이미지에서 이미지", "ControlNet", "이미지", "LoRA"],
611
+ "tags": ["이미지에서 이미지", "ControlNet", "이미지"],
551
612
  "models": ["Flux"],
552
613
  "date": "2025-03-01",
553
614
  "size": 32.98
@@ -559,7 +620,7 @@
559
620
  "mediaSubtype": "webp",
560
621
  "description": "Flux Redux를 사용하여 참조 이미지에서 스타일을 전이하여 이미지를 생성합니다.",
561
622
  "tutorialUrl": "https://docs.comfy.org/tutorials/flux/flux-1-controlnet",
562
- "tags": ["이미지에서 이미지", "ControlNet", "이미지", "LoRA"],
623
+ "tags": ["이미지에서 이미지", "ControlNet", "이미지"],
563
624
  "models": ["Flux"],
564
625
  "date": "2025-03-01",
565
626
  "size": 32.74
@@ -738,18 +799,6 @@
738
799
  "date": "2025-03-01",
739
800
  "size": 9.9
740
801
  },
741
- {
742
- "name": "sdxl_revision_zero_positive",
743
- "title": "SDXL 리비전 제로 포지티브",
744
- "mediaType": "image",
745
- "mediaSubtype": "webp",
746
- "description": "SDXL 리비전을 사용하여 텍스트 프롬프트와 참조 이미지를 모두 사용하여 이미지를 생성합니다.",
747
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/sdxl/#revision",
748
- "tags": ["텍스트에서 이미지", "이미지"],
749
- "models": ["SDXL", "Stability"],
750
- "date": "2025-03-01",
751
- "size": 9.9
752
- },
753
802
  {
754
803
  "name": "sdxlturbo_example",
755
804
  "title": "SDXL 터보",
@@ -769,7 +818,7 @@
769
818
  "mediaSubtype": "webp",
770
819
  "thumbnailVariant": "compareSlider",
771
820
  "description": "ComfyUI에서 Lotus 깊이를 실행하여 세부 정보 유지력이 뛰어난 제로샷, 효율적인 단안 깊이 추정을 수행합니다.",
772
- "tags": ["깊이", "이미지"],
821
+ "tags": ["이미지", "텍스트에서 이미지"],
773
822
  "models": ["SD1.5"],
774
823
  "date": "2025-05-21",
775
824
  "size": 1.93
@@ -781,7 +830,7 @@
781
830
  "type": "video",
782
831
  "category": "GENERATION TYPE",
783
832
  "icon": "icon-[lucide--film]",
784
- "title": "비디오",
833
+ "title": "Video",
785
834
  "templates": [
786
835
  {
787
836
  "name": "video_wan2_2_14B_t2v",
@@ -816,19 +865,19 @@
816
865
  "mediaSubtype": "webp",
817
866
  "thumbnailVariant": "hoverDissolve",
818
867
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2_2",
819
- "tags": ["FLF2V", "비디오"],
868
+ "tags": ["앞뒤프레임영상", "비디오"],
820
869
  "models": ["Wan2.2", "Wan"],
821
870
  "date": "2025-08-02",
822
871
  "size": 35.42
823
872
  },
824
873
  {
825
874
  "name": "video_wan2_2_14B_animate",
826
- "title": "Wan2.2 Animate, character animation and replacement",
827
- "description": "Unified character animation and replacement framework with precise motion and expression replication.",
875
+ "title": "Wan2.2 Animate 캐릭터 애니메이션 교체",
876
+ "description": "정밀한 동작 표정 복제를 갖춘 통합 캐릭터 애니메이션 교체 프레임워크。",
828
877
  "mediaType": "image",
829
878
  "mediaSubtype": "webp",
830
879
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-animate",
831
- "tags": ["Video", "Image to Video"],
880
+ "tags": ["비디오", "이미지에서 비디오"],
832
881
  "models": ["Wan2.2", "Wan"],
833
882
  "date": "2025-09-22",
834
883
  "size": 25.535
@@ -847,23 +896,23 @@
847
896
  },
848
897
  {
849
898
  "name": "video_humo",
850
- "title": "HuMo Video Generation",
851
- "description": "Generate videos basic on audio, image, and text, keep the character's lip sync.",
899
+ "title": "HuMo 비디오 생성",
900
+ "description": "오디오, 이미지 텍스트를 기반으로 비디오를 생성하고 캐릭터의 립싱크를 유지합니다.",
852
901
  "mediaType": "image",
853
902
  "mediaSubtype": "webp",
854
- "tags": ["Video"],
903
+ "tags": ["비디오"],
855
904
  "models": ["HuMo"],
856
905
  "date": "2025-09-21",
857
906
  "size": 25.98
858
907
  },
859
908
  {
860
909
  "name": "video_wan2_2_14B_fun_inpaint",
861
- "title": "Wan 2.2 14B Fun Inp",
862
- "description": "Generate videos from start and end frames using Wan 2.2 Fun Inp.",
910
+ "title": "Wan 2.2 14B Fun 인페인팅",
911
+ "description": "Wan 2.2 Fun Inp를 사용하여 시작 프레임과 프레임에서 비디오를 생성합니다.",
863
912
  "mediaType": "image",
864
913
  "mediaSubtype": "webp",
865
914
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan2-2-fun-inp",
866
- "tags": ["FLF2V", "Video"],
915
+ "tags": ["앞뒤프레임영상", "비디오"],
867
916
  "models": ["Wan2.2", "Wan"],
868
917
  "date": "2025-08-12",
869
918
  "size": 35.42
@@ -945,7 +994,7 @@
945
994
  "mediaType": "image",
946
995
  "mediaSubtype": "webp",
947
996
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
948
- "tags": ["참조에서 비디오", "비디오"],
997
+ "tags": ["비디오", "이미지에서 비디오"],
949
998
  "models": ["Wan2.1", "Wan"],
950
999
  "date": "2025-05-21",
951
1000
  "size": 53.79
@@ -971,7 +1020,7 @@
971
1020
  "mediaSubtype": "webp",
972
1021
  "thumbnailVariant": "compareSlider",
973
1022
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
974
- "tags": ["아웃페인트", "비디오"],
1023
+ "tags": ["아웃페인팅", "비디오"],
975
1024
  "models": ["Wan2.1", "Wan"],
976
1025
  "date": "2025-05-21",
977
1026
  "size": 53.79
@@ -983,7 +1032,7 @@
983
1032
  "mediaType": "image",
984
1033
  "mediaSubtype": "webp",
985
1034
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
986
- "tags": ["FLF2V", "비디오"],
1035
+ "tags": ["앞뒤프레임영상", "비디오"],
987
1036
  "models": ["Wan2.1", "Wan"],
988
1037
  "date": "2025-05-21",
989
1038
  "size": 53.79
@@ -996,18 +1045,18 @@
996
1045
  "mediaSubtype": "webp",
997
1046
  "thumbnailVariant": "compareSlider",
998
1047
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/vace",
999
- "tags": ["인페인트", "비디오"],
1048
+ "tags": ["인페인팅", "비디오"],
1000
1049
  "models": ["Wan2.1", "Wan"],
1001
1050
  "date": "2025-05-21",
1002
1051
  "size": 53.79
1003
1052
  },
1004
1053
  {
1005
1054
  "name": "video_wan2.1_alpha_t2v_14B",
1006
- "title": "Wan2.1 Alpha T2V",
1007
- "description": "Generate text-to-video with alpha channel support for transparent backgrounds and semi-transparent objects.",
1055
+ "title": "Wan2.1 Alpha 텍스트에서 비디오",
1056
+ "description": "투명 배경 반투명 객체를 위한 알파 채널을 지원하는 텍스트에서 비디오 생성.",
1008
1057
  "mediaType": "image",
1009
1058
  "mediaSubtype": "webp",
1010
- "tags": ["Text to Video", "Video"],
1059
+ "tags": ["텍스트에서 비디오", "비디오"],
1011
1060
  "models": ["Wan2.1", "Wan"],
1012
1061
  "date": "2025-10-06",
1013
1062
  "size": 20.95
@@ -1080,14 +1129,14 @@
1080
1129
  "mediaType": "image",
1081
1130
  "mediaSubtype": "webp",
1082
1131
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/fun-inp",
1083
- "tags": ["인페인트", "비디오"],
1132
+ "tags": ["인페인팅", "비디오"],
1084
1133
  "models": ["Wan2.1", "Wan"],
1085
1134
  "date": "2025-04-15",
1086
1135
  "size": 10.6
1087
1136
  },
1088
1137
  {
1089
1138
  "name": "wan2.1_fun_control",
1090
- "title": "Wan 2.1 ControlNet",
1139
+ "title": "Wan 2.1 컨트롤넷",
1091
1140
  "description": "Wan 2.1 ControlNet을 사용하여 포즈, 깊이 및 엣지 제어로 안내된 비디오를 생성합니다.",
1092
1141
  "mediaType": "image",
1093
1142
  "mediaSubtype": "webp",
@@ -1100,12 +1149,12 @@
1100
1149
  },
1101
1150
  {
1102
1151
  "name": "wan2.1_flf2v_720_f16",
1103
- "title": "Wan 2.1 FLF2V 720p F16",
1152
+ "title": "Wan 2.1 시작-끝 프레임 비디오 720p F16",
1104
1153
  "description": "Wan 2.1 FLF2V를 사용하여 첫 프레임과 마지막 프레임을 제어하여 비디오를 생성합니다.",
1105
1154
  "mediaType": "image",
1106
1155
  "mediaSubtype": "webp",
1107
1156
  "tutorialUrl": "https://docs.comfy.org/tutorials/video/wan/wan-flf",
1108
- "tags": ["FLF2V", "비디오"],
1157
+ "tags": ["앞뒤프레임영상", "비디오"],
1109
1158
  "models": ["Wan2.1", "Wan"],
1110
1159
  "date": "2025-04-15",
1111
1160
  "size": 38.23
@@ -1189,11 +1238,11 @@
1189
1238
  "type": "audio",
1190
1239
  "category": "GENERATION TYPE",
1191
1240
  "icon": "icon-[lucide--volume-2]",
1192
- "title": "오디오",
1241
+ "title": "Audio",
1193
1242
  "templates": [
1194
1243
  {
1195
1244
  "name": "audio_stable_audio_example",
1196
- "title": "Stable Audio",
1245
+ "title": "안정 오디오",
1197
1246
  "mediaType": "audio",
1198
1247
  "mediaSubtype": "mp3",
1199
1248
  "description": "Stable Audio를 사용하여 텍스트 프롬프트에서 오디오를 생성합니다.",
@@ -1209,7 +1258,7 @@
1209
1258
  "mediaType": "audio",
1210
1259
  "mediaSubtype": "mp3",
1211
1260
  "description": "ACE-Step v1을 사용하여 텍스트 프롬프트에서 인스트루멘탈 음악을 생성합니다.",
1212
- "tags": ["텍스트에서 오디오", "오디오", "인스트루멘탈"],
1261
+ "tags": ["텍스트에서 오디오", "오디오"],
1213
1262
  "models": ["ACE-Step"],
1214
1263
  "date": "2025-03-01",
1215
1264
  "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
@@ -1221,7 +1270,7 @@
1221
1270
  "mediaType": "audio",
1222
1271
  "mediaSubtype": "mp3",
1223
1272
  "description": "ACE-Step v1을 사용하여 텍스트 프롬프트에서 보컬이 있는 노래를 생성하며, 다국어 및 스타일 커스터마이제이션을 지원합니다.",
1224
- "tags": ["텍스트에서 오디오", "오디오", "노래"],
1273
+ "tags": ["텍스트에서 오디오", "오디오"],
1225
1274
  "models": ["ACE-Step"],
1226
1275
  "date": "2025-03-01",
1227
1276
  "tutorialUrl": "https://docs.comfy.org/tutorials/audio/ace-step/ace-step-v1",
@@ -1246,15 +1295,15 @@
1246
1295
  "type": "3d",
1247
1296
  "category": "GENERATION TYPE",
1248
1297
  "icon": "icon-[lucide--box]",
1249
- "title": "3D",
1298
+ "title": "3D Model",
1250
1299
  "templates": [
1251
1300
  {
1252
1301
  "name": "3d_hunyuan3d-v2.1",
1253
- "title": "Hunyuan3D 2.1",
1302
+ "title": "혼원3D 2.1",
1254
1303
  "mediaType": "image",
1255
1304
  "mediaSubtype": "webp",
1256
- "description": "Generate 3D models from single images using Hunyuan3D 2.0.",
1257
- "tags": ["Image to Model", "3D"],
1305
+ "description": "Hunyuan3D 2.0을 사용하여 단일 이미지에서 3D 모델을 생성합니다.",
1306
+ "tags": ["이미지에서 3D", "3D"],
1258
1307
  "models": ["Hunyuan3D"],
1259
1308
  "date": "2025-03-01",
1260
1309
  "tutorialUrl": "",
@@ -1262,11 +1311,11 @@
1262
1311
  },
1263
1312
  {
1264
1313
  "name": "3d_hunyuan3d_image_to_model",
1265
- "title": "Hunyuan3D 2.0",
1314
+ "title": "혼원3D 2.0",
1266
1315
  "mediaType": "image",
1267
1316
  "mediaSubtype": "webp",
1268
1317
  "description": "Hunyuan3D 2.0을 사용하여 단일 이미지에서 3D 모델을 생성합니다.",
1269
- "tags": ["이미지에서 모델", "3D"],
1318
+ "tags": ["이미지에서 3D", "3D"],
1270
1319
  "models": ["Hunyuan3D"],
1271
1320
  "date": "2025-03-01",
1272
1321
  "tutorialUrl": "",
@@ -1274,11 +1323,11 @@
1274
1323
  },
1275
1324
  {
1276
1325
  "name": "3d_hunyuan3d_multiview_to_model",
1277
- "title": "Hunyuan3D 2.0 MV",
1326
+ "title": "혼원3D 2.0 다시점",
1278
1327
  "mediaType": "image",
1279
1328
  "mediaSubtype": "webp",
1280
1329
  "description": "Hunyuan3D 2.0 MV를 사용하여 여러 뷰에서 3D 모델을 생성합니다.",
1281
- "tags": ["다중 뷰에서 모델", "3D"],
1330
+ "tags": ["3D", "이미지에서 3D"],
1282
1331
  "models": ["Hunyuan3D"],
1283
1332
  "date": "2025-03-01",
1284
1333
  "tutorialUrl": "",
@@ -1287,28 +1336,16 @@
1287
1336
  },
1288
1337
  {
1289
1338
  "name": "3d_hunyuan3d_multiview_to_model_turbo",
1290
- "title": "Hunyuan3D 2.0 MV Turbo",
1339
+ "title": "혼원3D 2.0 다시점 Turbo",
1291
1340
  "mediaType": "image",
1292
1341
  "mediaSubtype": "webp",
1293
1342
  "description": "Hunyuan3D 2.0 MV Turbo를 사용하여 여러 뷰에서 3D 모델을 생성합니다.",
1294
- "tags": ["다중 뷰에서 모델", "3D"],
1343
+ "tags": ["이미지에서 3D", "3D"],
1295
1344
  "models": ["Hunyuan3D"],
1296
1345
  "date": "2025-03-01",
1297
1346
  "tutorialUrl": "",
1298
1347
  "thumbnailVariant": "hoverDissolve",
1299
1348
  "size": 4.59
1300
- },
1301
- {
1302
- "name": "stable_zero123_example",
1303
- "title": "Stable Zero123",
1304
- "mediaType": "image",
1305
- "mediaSubtype": "webp",
1306
- "description": "Stable Zero123을 사용하여 단일 이미지에서 3D 뷰를 생성합니다.",
1307
- "tags": ["이미지에서 3D", "3D"],
1308
- "models": ["Stable Zero123"],
1309
- "date": "2025-03-01",
1310
- "tutorialUrl": "https://comfyanonymous.github.io/ComfyUI_examples/3d/",
1311
- "size": 7.99
1312
1349
  }
1313
1350
  ]
1314
1351
  },
@@ -1317,15 +1354,15 @@
1317
1354
  "type": "image",
1318
1355
  "category": "CLOSED SOURCE MODELS",
1319
1356
  "icon": "icon-[lucide--hand-coins]",
1320
- "title": "이미지 API",
1357
+ "title": "Image API",
1321
1358
  "templates": [
1322
1359
  {
1323
1360
  "name": "api_bytedance_seedream4",
1324
- "title": "ByteDance Seedream 4.0",
1325
- "description": "Multi-modal AI model for text-to-image and image editing. Generate 2K images in under 2 seconds with natural language control.",
1361
+ "title": "바이트댄스 Seedream 4.0",
1362
+ "description": "텍스트에서 이미지 생성 이미지 편집을 위한 멀티모달 AI 모델. 자연어 제어로 2 이내에 2K 이미지를 생성합니다.",
1326
1363
  "mediaType": "image",
1327
1364
  "mediaSubtype": "webp",
1328
- "tags": ["Image Edit", "Image", "API", "Text-to-Image"],
1365
+ "tags": ["이미지 편집", "이미지", "API", "텍스트에서 이미지"],
1329
1366
  "models": ["Seedream 4.0", "ByteDance"],
1330
1367
  "date": "2025-09-11",
1331
1368
  "OpenSource": false,
@@ -1392,11 +1429,11 @@
1392
1429
  },
1393
1430
  {
1394
1431
  "name": "api_wan_text_to_image",
1395
- "title": "Wan2.5: Text to Image",
1396
- "description": "Generate images with excellent prompt following and visual quality using FLUX.1 Pro.",
1432
+ "title": "Wan2.5: 텍스트에서 이미지",
1433
+ "description": "FLUX.1 Pro를 사용하여 우수한 프롬프트 추종성과 시각적 품질의 이미지를 생성합니다.",
1397
1434
  "mediaType": "image",
1398
1435
  "mediaSubtype": "webp",
1399
- "tags": ["Text to Image", "Image", "API"],
1436
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1400
1437
  "models": ["Wan2.5"],
1401
1438
  "date": "2025-09-25",
1402
1439
  "OpenSource": false,
@@ -1438,7 +1475,7 @@
1438
1475
  "mediaType": "image",
1439
1476
  "mediaSubtype": "webp",
1440
1477
  "thumbnailVariant": "compareSlider",
1441
- "tags": ["텍스트에서 이미지", "이미지", "API", "스타일 전이"],
1478
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1442
1479
  "models": ["Luma"],
1443
1480
  "date": "2025-03-01",
1444
1481
  "OpenSource": false,
@@ -1451,7 +1488,7 @@
1451
1488
  "description": "Recraft를 사용하여 사용자 정의 색상 팔레트와 브랜드별 시각적 요소로 이미지를 생성합니다.",
1452
1489
  "mediaType": "image",
1453
1490
  "mediaSubtype": "webp",
1454
- "tags": ["텍스트에서 이미지", "이미지", "API", "색상 제어"],
1491
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1455
1492
  "models": ["Recraft"],
1456
1493
  "date": "2025-03-01",
1457
1494
  "OpenSource": false,
@@ -1464,7 +1501,7 @@
1464
1501
  "description": "시각적 예제로 스타일을 제어하고, 위치를 정렬하며, 객체를 미세 조정합니다. 완벽한 브랜드 일관성을 위해 스타일을 저장하고 공유합니다.",
1465
1502
  "mediaType": "image",
1466
1503
  "mediaSubtype": "webp",
1467
- "tags": ["텍스트에서 이미지", "이미지", "API", "스타일 제어"],
1504
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1468
1505
  "models": ["Recraft"],
1469
1506
  "date": "2025-03-01",
1470
1507
  "OpenSource": false,
@@ -1504,7 +1541,7 @@
1504
1541
  "mediaType": "image",
1505
1542
  "thumbnailVariant": "compareSlider",
1506
1543
  "mediaSubtype": "webp",
1507
- "tags": ["이미지에서 이미지", "이미지", "API", "스타일 전이"],
1544
+ "tags": ["이미지에서 이미지", "이미지", "API"],
1508
1545
  "models": ["Runway"],
1509
1546
  "date": "2025-03-01",
1510
1547
  "OpenSource": false,
@@ -1571,7 +1608,7 @@
1571
1608
  "description": "Ideogram V3를 사용하여 우수한 프롬프트 정렬, 포토리얼리즘 및 텍스트 렌더링으로 전문 품질의 이미지를 생성합니다.",
1572
1609
  "mediaType": "image",
1573
1610
  "mediaSubtype": "webp",
1574
- "tags": ["텍스트에서 이미지", "이미지", "API", "텍스트 렌더링"],
1611
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1575
1612
  "models": ["Ideogram"],
1576
1613
  "date": "2025-03-01",
1577
1614
  "OpenSource": false,
@@ -1614,7 +1651,7 @@
1614
1651
  "mediaType": "image",
1615
1652
  "mediaSubtype": "webp",
1616
1653
  "thumbnailVariant": "compareSlider",
1617
- "tags": ["인페인트", "이미지", "API"],
1654
+ "tags": ["인페인팅", "이미지", "API"],
1618
1655
  "models": ["GPT-Image-1"],
1619
1656
  "date": "2025-03-01",
1620
1657
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
@@ -1629,7 +1666,7 @@
1629
1666
  "mediaType": "image",
1630
1667
  "mediaSubtype": "webp",
1631
1668
  "thumbnailVariant": "compareSlider",
1632
- "tags": ["텍스트에서 이미지", "이미지", "API", "다중 입력"],
1669
+ "tags": ["텍스트에서 이미지", "이미지", "API"],
1633
1670
  "models": ["GPT-Image-1"],
1634
1671
  "date": "2025-03-01",
1635
1672
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/gpt-image-1",
@@ -1658,7 +1695,7 @@
1658
1695
  "mediaType": "image",
1659
1696
  "mediaSubtype": "webp",
1660
1697
  "thumbnailVariant": "compareSlider",
1661
- "tags": ["인페인트", "이미지", "API"],
1698
+ "tags": ["인페인팅", "이미지", "API"],
1662
1699
  "models": ["Dall-E", "OpenAI"],
1663
1700
  "date": "2025-03-01",
1664
1701
  "tutorialUrl": "https://docs.comfy.org/tutorials/api-nodes/openai/dall-e-2",
@@ -1687,15 +1724,15 @@
1687
1724
  "type": "video",
1688
1725
  "category": "CLOSED SOURCE MODELS",
1689
1726
  "icon": "icon-[lucide--film]",
1690
- "title": "비디오 API",
1727
+ "title": "Video API",
1691
1728
  "templates": [
1692
1729
  {
1693
1730
  "name": "api_openai_sora_video",
1694
- "title": "Sora 2: Text & Image to Video",
1695
- "description": "OpenAI's Sora-2 and Sora-2 Pro video generation with synchronized audio.",
1731
+ "title": "Sora 2: 텍스트 이미지에서 비디오",
1732
+ "description": "동기화된 오디오가 포함된 OpenAI Sora-2 Sora-2 Pro 비디오 생성.",
1696
1733
  "mediaType": "image",
1697
1734
  "mediaSubtype": "webp",
1698
- "tags": ["Image to Video", "Text to Video", "API"],
1735
+ "tags": ["이미지에서 비디오", "텍스트에서 비디오", "API"],
1699
1736
  "models": ["OpenAI"],
1700
1737
  "date": "2025-10-08",
1701
1738
  "OpenSource": false,
@@ -1704,11 +1741,11 @@
1704
1741
  },
1705
1742
  {
1706
1743
  "name": "api_wan_text_to_video",
1707
- "title": "Wan2.5: Text to Video",
1708
- "description": "Generate videos with synchronized audio, enhanced motion, and superior quality.",
1744
+ "title": "Wan2.5: 텍스트에서 비디오",
1745
+ "description": "동기화된 오디오, 향상된 모션 우수한 품질의 비디오를 생성합니다.",
1709
1746
  "mediaType": "image",
1710
1747
  "mediaSubtype": "webp",
1711
- "tags": ["Image to Video", "Video", "API"],
1748
+ "tags": ["이미지에서 비디오", "비디오", "API"],
1712
1749
  "models": ["Wan2.5"],
1713
1750
  "date": "2025-09-27",
1714
1751
  "tutorialUrl": "",
@@ -1718,11 +1755,11 @@
1718
1755
  },
1719
1756
  {
1720
1757
  "name": "api_wan_image_to_video",
1721
- "title": "Wan2.5: Image to Video",
1722
- "description": "Transform images into videos with synchronized audio, enhanced motion, and superior quality.",
1758
+ "title": "Wan2.5: 이미지에서 비디오",
1759
+ "description": "동기화된 오디오, 향상된 모션 우수한 품질로 이미지를 비디오로 변환합니다.",
1723
1760
  "mediaType": "image",
1724
1761
  "mediaSubtype": "webp",
1725
- "tags": ["Image to Video", "Video", "API"],
1762
+ "tags": ["이미지에서 비디오", "비디오", "API"],
1726
1763
  "models": ["Wan2.5"],
1727
1764
  "date": "2025-09-27",
1728
1765
  "tutorialUrl": "",
@@ -1750,7 +1787,7 @@
1750
1787
  "description": "Kling을 사용하여 이미지에 시각적 효과를 적용하여 동적 비디오를 생성합니다.",
1751
1788
  "mediaType": "image",
1752
1789
  "mediaSubtype": "webp",
1753
- "tags": ["비디오 효과", "비디오", "API"],
1790
+ "tags": ["비디오", "API"],
1754
1791
  "models": ["Kling"],
1755
1792
  "date": "2025-03-01",
1756
1793
  "tutorialUrl": "",
@@ -1764,7 +1801,7 @@
1764
1801
  "description": "첫 프레임과 마지막 프레임을 제어하여 비디오를 생성합니다.",
1765
1802
  "mediaType": "image",
1766
1803
  "mediaSubtype": "webp",
1767
- "tags": ["비디오 생성", "비디오", "API", "프레임 제어"],
1804
+ "tags": ["비디오", "API", "앞뒤프레임영상"],
1768
1805
  "models": ["Kling"],
1769
1806
  "date": "2025-03-01",
1770
1807
  "tutorialUrl": "",
@@ -1806,7 +1843,7 @@
1806
1843
  "description": "최대 7개의 참조 이미지를 사용하여 비디오 시퀀스 전반에 걸쳐 캐릭터와 스타일 일관성을 유지하는 일관된 주제로 비디오를 생성합니다.",
1807
1844
  "mediaType": "image",
1808
1845
  "mediaSubtype": "webp",
1809
- "tags": ["참조에서 비디오", "비디오", "API"],
1846
+ "tags": ["비디오", "이미지에서 비디오", "API"],
1810
1847
  "models": ["Vidu"],
1811
1848
  "date": "2025-08-23",
1812
1849
  "tutorialUrl": "",
@@ -1820,7 +1857,7 @@
1820
1857
  "description": "정의된 시작 프레임과 종료 프레임 사이에 자연스러운 모션 보간과 일관된 시각적 품질로 매끄러운 비디오 전환을 생성합니다.",
1821
1858
  "mediaType": "image",
1822
1859
  "mediaSubtype": "webp",
1823
- "tags": ["FLF2V", "비디오", "API"],
1860
+ "tags": ["비디오", "API", "앞뒤프레임영상"],
1824
1861
  "models": ["Vidu"],
1825
1862
  "date": "2025-08-23",
1826
1863
  "tutorialUrl": "",
@@ -1830,11 +1867,11 @@
1830
1867
  },
1831
1868
  {
1832
1869
  "name": "api_bytedance_text_to_video",
1833
- "title": "ByteDance: Text to Video",
1834
- "description": "Generate high-quality videos directly from text prompts using ByteDance's Seedance model. Supports multiple resolutions and aspect ratios with natural motion and cinematic quality.",
1870
+ "title": "ByteDance: 텍스트에서 비디오",
1871
+ "description": "ByteDance의 Seedance 모델을 사용하여 텍스트 프롬프트에서 직접 고품질 비디오를 생성합니다. 자연스러운 모션과 영화적 품질로 여러 해상도 종횡비를 지원합니다.",
1835
1872
  "mediaType": "image",
1836
1873
  "mediaSubtype": "webp",
1837
- "tags": ["Video", "API", "Text to Video"],
1874
+ "tags": ["비디오", "API", "텍스트에서 비디오"],
1838
1875
  "models": ["ByteDance"],
1839
1876
  "date": "2025-10-6",
1840
1877
  "tutorialUrl": "",
@@ -1844,11 +1881,11 @@
1844
1881
  },
1845
1882
  {
1846
1883
  "name": "api_bytedance_image_to_video",
1847
- "title": "ByteDance: Image to Video",
1848
- "description": "Transform static images into dynamic videos using ByteDance's Seedance model. Analyzes image structure and generates natural motion with consistent visual style and coherent video sequences.",
1884
+ "title": "ByteDance: 이미지에서 비디오",
1885
+ "description": "ByteDance의 Seedance 모델을 사용하여 정적 이미지를 동적 비디오로 변환합니다. 이미지 구조를 분석하고 일관된 시각적 스타일과 일관된 비디오 시퀀스로 자연스러운 모션을 생성합니다.",
1849
1886
  "mediaType": "image",
1850
1887
  "mediaSubtype": "webp",
1851
- "tags": ["Video", "API", "Image to Video"],
1888
+ "tags": ["비디오", "API", "이미지에서 비디오"],
1852
1889
  "models": ["ByteDance"],
1853
1890
  "date": "2025-10-6",
1854
1891
  "tutorialUrl": "",
@@ -1858,11 +1895,11 @@
1858
1895
  },
1859
1896
  {
1860
1897
  "name": "api_bytedance_flf2v",
1861
- "title": "ByteDance: Start End to Video",
1862
- "description": "Generate cinematic video transitions between start and end frames with fluid motion, scene consistency, and professional polish using ByteDance's Seedance model.",
1898
+ "title": "ByteDance: 시작-끝 프레임 비디오",
1899
+ "description": "ByteDance의 Seedance 모델을 사용하여 유동적인 모션, 장면 일관성 전문적인 마무리로 시작 프레임과 프레임 간의 영화적 비디오 전환을 생성합니다.",
1863
1900
  "mediaType": "image",
1864
1901
  "mediaSubtype": "webp",
1865
- "tags": ["Video", "API", "FLF2V"],
1902
+ "tags": ["비디오", "API", "앞뒤프레임영상"],
1866
1903
  "models": ["ByteDance"],
1867
1904
  "date": "2025-10-6",
1868
1905
  "tutorialUrl": "",
@@ -1933,7 +1970,7 @@
1933
1970
  "mediaType": "image",
1934
1971
  "thumbnailVariant": "hoverDissolve",
1935
1972
  "mediaSubtype": "webp",
1936
- "tags": ["비디오에서 비디오", "비디오", "API", "모션 전이"],
1973
+ "tags": ["비디오에서 비디오", "비디오", "API"],
1937
1974
  "models": ["Moonvalley"],
1938
1975
  "date": "2025-03-01",
1939
1976
  "tutorialUrl": "",
@@ -1948,7 +1985,7 @@
1948
1985
  "mediaType": "image",
1949
1986
  "thumbnailVariant": "hoverDissolve",
1950
1987
  "mediaSubtype": "webp",
1951
- "tags": ["비디오에서 비디오", "비디오", "API", "포즈 제어"],
1988
+ "tags": ["비디오에서 비디오", "비디오", "API"],
1952
1989
  "models": ["Moonvalley"],
1953
1990
  "date": "2025-03-01",
1954
1991
  "tutorialUrl": "",
@@ -2018,7 +2055,7 @@
2018
2055
  "description": "PixVerse를 사용하여 모션과 효과로 정적 이미지에서 동적 비디오를 생성합니다.",
2019
2056
  "mediaType": "image",
2020
2057
  "mediaSubtype": "webp",
2021
- "tags": ["이미지에서 비디오", "비디오", "API", "템플릿"],
2058
+ "tags": ["이미지에서 비디오", "비디오", "API"],
2022
2059
  "models": ["PixVerse"],
2023
2060
  "date": "2025-03-01",
2024
2061
  "tutorialUrl": "",
@@ -2074,7 +2111,7 @@
2074
2111
  "description": "Runway의 정밀도로 두 키프레임 사이에 매끄러운 비디오 전환을 생성합니다.",
2075
2112
  "mediaType": "image",
2076
2113
  "mediaSubtype": "webp",
2077
- "tags": ["비디오 생성", "비디오", "API", "프레임 제어"],
2114
+ "tags": ["비디오", "API", "앞뒤프레임영상"],
2078
2115
  "models": ["Runway"],
2079
2116
  "date": "2025-03-01",
2080
2117
  "tutorialUrl": "",
@@ -2102,7 +2139,7 @@
2102
2139
  "description": "Pika Scenes를 사용하여 여러 입력 이미지를 통합하는 비디오를 생성합니다.",
2103
2140
  "mediaType": "image",
2104
2141
  "mediaSubtype": "webp",
2105
- "tags": ["이미지에서 비디오", "비디오", "API", "다중 이미지"],
2142
+ "tags": ["이미지에서 비디오", "비디오", "API"],
2106
2143
  "models": ["Pika"],
2107
2144
  "date": "2025-03-01",
2108
2145
  "tutorialUrl": "",
@@ -2149,11 +2186,11 @@
2149
2186
  "templates": [
2150
2187
  {
2151
2188
  "name": "api_rodin_gen2",
2152
- "title": "Rodin: Gen-2 Image to Model",
2153
- "description": "Generate detailed 4X mesh quality 3D models from photos using Rodin Gen2",
2189
+ "title": "Rodin: Gen-2 이미지에서 모델",
2190
+ "description": "Rodin Gen2를 사용하여 사진에서 4배 메시 품질의 상세한 3D 모델을 생성합니다",
2154
2191
  "mediaType": "image",
2155
2192
  "mediaSubtype": "webp",
2156
- "tags": ["Image to Model", "3D", "API"],
2193
+ "tags": ["이미지에서 3D", "3D", "API"],
2157
2194
  "models": ["Rodin"],
2158
2195
  "date": "2025-09-27",
2159
2196
  "tutorialUrl": "",
@@ -2168,7 +2205,7 @@
2168
2205
  "mediaType": "image",
2169
2206
  "thumbnailVariant": "compareSlider",
2170
2207
  "mediaSubtype": "webp",
2171
- "tags": ["이미지에서 모델", "3D", "API"],
2208
+ "tags": ["이미지에서 3D", "3D", "API"],
2172
2209
  "models": ["Rodin"],
2173
2210
  "date": "2025-03-01",
2174
2211
  "tutorialUrl": "",
@@ -2183,7 +2220,7 @@
2183
2220
  "mediaType": "image",
2184
2221
  "thumbnailVariant": "compareSlider",
2185
2222
  "mediaSubtype": "webp",
2186
- "tags": ["다중 뷰에서 모델", "3D", "API"],
2223
+ "tags": ["이미지에서 3D", "3D", "API"],
2187
2224
  "models": ["Rodin"],
2188
2225
  "date": "2025-03-01",
2189
2226
  "tutorialUrl": "",
@@ -2212,7 +2249,7 @@
2212
2249
  "mediaType": "image",
2213
2250
  "thumbnailVariant": "compareSlider",
2214
2251
  "mediaSubtype": "webp",
2215
- "tags": ["이미지에서 모델", "3D", "API"],
2252
+ "tags": ["이미지에서 3D", "3D", "API"],
2216
2253
  "models": ["Tripo"],
2217
2254
  "date": "2025-03-01",
2218
2255
  "tutorialUrl": "",
@@ -2227,7 +2264,7 @@
2227
2264
  "mediaType": "image",
2228
2265
  "thumbnailVariant": "compareSlider",
2229
2266
  "mediaSubtype": "webp",
2230
- "tags": ["다중 뷰에서 모델", "3D", "API"],
2267
+ "tags": ["이미지에서 3D", "3D", "API"],
2231
2268
  "models": ["Tripo"],
2232
2269
  "date": "2025-03-01",
2233
2270
  "tutorialUrl": "",
@@ -2242,7 +2279,7 @@
2242
2279
  "type": "audio",
2243
2280
  "category": "CLOSED SOURCE MODELS",
2244
2281
  "icon": "icon-[lucide--volume-2]",
2245
- "title": "오디오 API",
2282
+ "title": "Audio API",
2246
2283
  "templates": [
2247
2284
  {
2248
2285
  "name": "api_stability_ai_text_to_audio",
@@ -2298,7 +2335,7 @@
2298
2335
  "description": "OpenAI의 고급 언어 모델과 지능형 대화를 나눕니다.",
2299
2336
  "mediaType": "image",
2300
2337
  "mediaSubtype": "webp",
2301
- "tags": ["채팅", "LLM", "API"],
2338
+ "tags": ["LLM", "API"],
2302
2339
  "models": ["OpenAI"],
2303
2340
  "date": "2025-03-01",
2304
2341
  "tutorialUrl": "",
@@ -2312,7 +2349,7 @@
2312
2349
  "description": "Gemini의 추론 기능으로 Google의 멀티모달 AI를 경험합니다.",
2313
2350
  "mediaType": "image",
2314
2351
  "mediaSubtype": "webp",
2315
- "tags": ["채팅", "LLM", "API"],
2352
+ "tags": ["LLM", "API"],
2316
2353
  "models": ["Google Gemini", "Google"],
2317
2354
  "date": "2025-03-01",
2318
2355
  "tutorialUrl": "",