cerevox 2.43.0 → 3.0.0-alpha.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (39) hide show
  1. package/dist/core/ai.d.ts +26 -3
  2. package/dist/core/ai.d.ts.map +1 -1
  3. package/dist/core/ai.js +15 -8
  4. package/dist/core/ai.js.map +1 -1
  5. package/dist/mcp/servers/prompts/actions/storyboard_optimization.md +5 -5
  6. package/dist/{utils/videoproject-schema.json → mcp/servers/prompts/draft_content-schema.json} +3 -3
  7. package/dist/mcp/servers/prompts/rules/creative-ad.md +6 -6
  8. package/dist/mcp/servers/prompts/rules/expert.md +25 -25
  9. package/dist/mcp/servers/prompts/rules/freeform.md +2 -3
  10. package/dist/mcp/servers/prompts/rules/general-video.md +10 -10
  11. package/dist/mcp/servers/prompts/rules/material-creation.md +2 -2
  12. package/dist/mcp/servers/prompts/rules/music-video.md +3 -3
  13. package/dist/mcp/servers/prompts/rules/stage-play.md +4 -4
  14. package/dist/mcp/servers/prompts/rules/story-telling.md +8 -8
  15. package/dist/mcp/servers/prompts/skills/storyboard/storyboard-optimization-skill.md +5 -5
  16. package/dist/mcp/servers/prompts/skills/video/continuity-techniques.md +1 -1
  17. package/dist/mcp/servers/prompts/skills/workflows/general-video.md +10 -10
  18. package/dist/mcp/servers/prompts/skills/workflows/music-video.md +3 -3
  19. package/dist/mcp/servers/prompts/zerocut-core.md +26 -27
  20. package/dist/mcp/servers/zerocut.d.ts.map +1 -1
  21. package/dist/mcp/servers/zerocut.js +383 -427
  22. package/dist/mcp/servers/zerocut.js.map +1 -1
  23. package/dist/utils/coze.d.ts +1 -0
  24. package/dist/utils/coze.d.ts.map +1 -1
  25. package/dist/utils/coze.js +19 -0
  26. package/dist/utils/coze.js.map +1 -1
  27. package/package.json +2 -2
  28. package/dist/timeline-editor/index.d.ts +0 -42
  29. package/dist/timeline-editor/index.d.ts.map +0 -1
  30. package/dist/timeline-editor/index.js +0 -82
  31. package/dist/timeline-editor/index.js.map +0 -1
  32. package/dist/timeline-editor/public/app.js +0 -2086
  33. package/dist/timeline-editor/public/index.html +0 -141
  34. package/dist/timeline-editor/public/style.css +0 -695
  35. package/dist/timeline-editor/server.d.ts +0 -137
  36. package/dist/timeline-editor/server.d.ts.map +0 -1
  37. package/dist/timeline-editor/server.js +0 -418
  38. package/dist/timeline-editor/server.js.map +0 -1
  39. /package/dist/{utils → mcp/servers/prompts}/storyboard-schema.json +0 -0
@@ -8,21 +8,21 @@
8
8
 
9
9
  1. 确保项目已正确开启:`project-open` 已被调用
10
10
  2. 根据剧情设计选择语音 → 使用 `search-voices` 选择合适的配音音色,若用户指定了voice_id,则直接使用该音色ID,无需验证
11
- 3. 剧本规范 → 调用`get-storyboard-schema`获取最新剧本规范 → 编写 story_board.json(受众、脚本、风格、角色、场景)
11
+ 3. 剧本规范 → 调用`get-schema`获取分镜规范 → 编写 storyboard.json(受众、脚本、风格、角色、场景)
12
12
  4. 剧本润色 → 检查并修改剧本的角色,确保每个场景角色的外貌、妆造、衣着特征在 start_frame 中描述完整以保证一致性
13
13
  5. 素材生成(严格按顺序)
14
14
  1) 配音 `generate-scene-tts`
15
15
  2) 图片 `generate-image` + 视频 `generate-video`
16
16
  或 `generate-video-by-ref` 参考图生视频
17
17
  3) 背景音乐 `generate-music`
18
- 6. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
18
+ 6. 技术规范 → 调用`get-schema`获取draft_content规范 → 根据规范创建 draft_content.json
19
19
  7. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
20
20
  8. 关闭项目 → `project-close`
21
21
 
22
22
  ### 修改
23
23
 
24
24
  1. 确保项目已启动 → `project-open`
25
- 2. 修改脚本 → 更新 story_board.json
25
+ 2. 修改脚本 → 更新 storyboard.json
26
26
  3. 更新素材 → 重新生成需要修改的素材
27
27
  4. 更新技术规范 → 更新 draft_content.json
28
28
  5. 执行渲染 → `compile-and-run` 自动下载成品
@@ -34,12 +34,12 @@
34
34
 
35
35
  1. `project-open`
36
36
  2. 使用`search-voices`选择合适的配音音色
37
- 3. 创建 story_board.json
37
+ 3. 创建 storyboard.json
38
38
  - 在每个场景中指定选定的voice_id
39
- - 可反复修改 story_board.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
39
+ - 可反复修改 storyboard.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
40
40
  4. 严格按顺序为每个场景生成素材:
41
41
  此时根据每个场景不同的特点,有两种视频素材生成方式:
42
- * 方式一(story_board 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
42
+ * 方式一(storyboard 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
43
43
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
44
44
  2) `generate-image`生成首帧图片→`generate-video`生成视频
45
45
  * 视频生成回退策略:
@@ -48,14 +48,14 @@
48
48
  - Ken Burns特效选择(回退时使用):
49
49
  - 6秒内:zoom类型(zoom_in, zoom_out)
50
50
  - 6秒以上:pan类型(pan_left, pan_right, pan_up, pan_down)
51
- * 方式二(story_board 的当前 scene 设置 video_type: references):
51
+ * 方式二(storyboard 的当前 scene 设置 video_type: references):
52
52
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
53
53
  2) `generate-video-by-ref`参考图生视频
54
54
  5. `generate-music`生成背景音乐
55
55
  6. 创建`draft_content.json`:
56
56
  - ⚠️ 必须包含完整的VideoProject结构
57
57
  - 除非用户明确拒绝,否则`draft_content.json`中必须包含字幕:
58
- - 字幕文本严格一致性:字幕内容必须与 story_board.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
58
+ - 字幕文本严格一致性:字幕内容必须与 storyboard.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
59
59
  - 严格禁止:任何形式的简化、概括或改写,禁止擅自增加、删除或修改任何文字内容
60
60
  - 时间轴同步:字幕时间轴必须与对应的视频精确同步(无延迟,与视频时间轴对齐)
61
61
  7. `compile-and-run`渲染并自动下载成片
@@ -74,7 +74,7 @@
74
74
  * 音色选择:使用`search-voices`筛选配音音色,匹配场景情感
75
75
  * 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
76
76
  * 时长控制:配音超16秒需简化台词或拆分场景
77
- - 如简化台词,请务必先修改 story_board.json 中的 script 或 dialog 字段,确保生成语音时的一致性
77
+ - 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
78
78
  * 视频生成策略:
79
79
  * 方式一:
80
80
  - 默认**优先使用**`generate-video`生成动态视频
@@ -98,7 +98,7 @@
98
98
  - 所有clip的startMs都基于视频时间轴计算
99
99
  * 检查字幕:
100
100
  - 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
101
- - 文本严格一致性:字幕内容**必须**与 story_board.json 中的 script 字段逐字对应
101
+ - 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
102
102
  - 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
103
103
  - 字幕显示时间不受转场滤镜影响,保持与音频同步
104
104
  * 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
@@ -2,10 +2,10 @@
2
2
 
3
3
  在该模式下,你只负责根据用户指令为用户准备素材,请**严格**按照以下模式执行:
4
4
 
5
- 1. **忽略**所有创建 story_board 的阶段,除非用户主动要求,不创建或修改 story_board
5
+ 1. **忽略**所有创建 storyboard 的阶段,除非用户主动要求,不主动创建或修改 storyboard
6
6
  2. **忽略**所有创建 draft_content 及合成视频阶段,除非用户主动要求,不执行 `compile-and-run` 指令
7
7
  3. 所有素材的生成一律**跳过一致性检查**
8
- 4. 除了 `get-storyboard-schema`、`get-video-project-schema`、`compile-and-run` 指令严格禁止主动执行外,其他一切工具均可按照用户需求自由调用。
8
+ 4. 除了 `compile-and-run` 指令严格禁止主动执行外,其他一切工具均可按照用户需求自由调用。
9
9
  5. 严格遵循用户的指令,一次执行最小步骤满足用户当前需求即可。
10
10
  6. 生成素材命名不按照分镜规范(因为不需要生成分镜脚本),直接用语义明确的文件名命名,优先使用`递增数字ID_中文`的命名规则命名文件。
11
11
  - 例如:`001_介绍.mp4`、`002_主体.mp4`、`003_结尾.mp4`等
@@ -9,11 +9,11 @@
9
9
  3. 音乐创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
10
10
  4. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
11
11
  5. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
12
- 6. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
12
+ 6. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
13
13
  7. 主要角色形象塑造 → `generate-character-image` → 生成主要角色形象参考图(三视图)
14
14
  8. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
15
15
  9. 首尾帧视频生成 → `generate-video` → **可选择使用连续镜头方式**:根据创意需要,可以选择以下一场景的 start_frame 作为上一场景的 end_frame 来实现场景间连续性,或采用独立场景切换方式,每段视频的实际时长应匹配 timeline_analysis 中 proposed_video_scenes 对应场景的 video_duration_s
16
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
16
+ 10. 技术规范 → 调用`get-schema`获取 dreft_content 规范 → 根据规范创建 draft_content.json
17
17
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
18
18
  12. 关闭项目 → `project-close`
19
19
 
@@ -140,7 +140,7 @@
140
140
  - 通过 timeline_analysis 中的 proposed_video_scenes 中的 script、video_start_s、video_duration_s 内容,生成对应的字幕
141
141
  - ‼️ 字幕必须生成,且符合核心设定的字幕规范
142
142
 
143
- ### story_board 规范
143
+ ### storyboard 规范
144
144
 
145
145
  - 场景连续性设计:
146
146
  - 连续镜头模式:如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧连续方式,用下一个场景的 start_frame 作为当前场景的 end_frame
@@ -8,13 +8,13 @@
8
8
  2. 音乐剧创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
9
9
  3. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
10
10
  4. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
11
- 5. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
11
+ 5. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
12
12
  6. 角色形象塑造 → `generate-character-image` → 生成角色形象参考图(三视图)
13
13
  7. 角色动作设计 → 根据角色形象和场景设计角色专业舞蹈动作及动作拆解 → 创建 character_actions.json
14
- 8. 角色动作舞台融合 → 根据 character_actions.json 融合角色动作到分镜场景,更新 story_board.json 中的 start_frame 和 video_prompt
14
+ 8. 角色动作舞台融合 → 根据 character_actions.json 融合角色动作到分镜场景,更新 storyboard.json 中的 start_frame 和 video_prompt
15
15
  9. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
16
16
  10. 首尾帧视频生成 → `generate-video` → **必须使用首尾帧一镜到底方式**:以下一场景的 start_frame 作为上一场景的 end_frame,确保场景间无缝连接,以增加镜头的连续性,每段视频的实际时长应完全等于 timeline_analysis.json 中 proposed_video_scenes 对应场景的 video_duration_s 数值(*1000转换为毫秒)
17
- 11. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
17
+ 11. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
18
18
  12. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
19
19
  13. 关闭项目 → `project-close`
20
20
 
@@ -250,7 +250,7 @@
250
250
  1. 场景视频时间轴必须与 timeline_analysis 中 proposed_video_scenes 里的各场景 video_duration_s 完全匹配
251
251
  2. 要包括歌曲字幕,注意字幕时间轴必须对齐正确,你可以根据 timeline_analysis.json 匹配和校正字幕
252
252
 
253
- ## story_board 规范
253
+ ## storyboard 规范
254
254
 
255
255
  - 如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧一镜到底,用下一个场景的 start_frame 作为当前场景的 end_frame。
256
256
 
@@ -19,20 +19,20 @@
19
19
  * **文案 ("script"字段):** 为每个分镜创作具备情感穿透力的文案。文案必须与画面描述紧密贴合,共同服务于情绪的传递。**禁止在文案中使用任何英文引号 ("")**。
20
20
  * **画面 ("start_frame"字段):** 为每个分镜构思详细的首帧画面。画风必须贴合用户诉求和故事氛围。描述需包含构图、光影、色彩、角色神态等关键视觉要素,达到可直接用于图片生成的标准。注意画面避免在运动、情感等处**锁死**,必须留有视频发挥的余地,比如人物哭泣,不要在一开始就让角色号啕大哭,动作、姿势、表情等也不要一开始就达到高潮,记住这只是首帧图片,需要为后续动画留有余地。
21
21
  * **动画 ("video_prompt"字段):** 为每个分镜构思详细的动画描述。动画必须与以画面作为首帧,描述紧密贴合,共同服务于情绪的传递。动画必须具备专业的镜头感和视觉效果,如镜头语言、运动、情感、动作等,也要考虑到光影和特效,且必须考虑到用户诉求和故事氛围。
22
- 8. 分镜整合输出: `get-storyboard-schema` 获取分镜场景规范 → 整合以上内容,创建初始 story_board.json
22
+ 8. 分镜整合输出: `get-schema` 获取分镜规范 → 整合以上内容,创建初始 storyboard.json
23
23
  9. **素材生成(根据选择的模式):**
24
24
  **模式一:批量图片生成**
25
25
  * 分组场景图片 `generate-image-serials` (一次性生成所有分镜图片)
26
- * 配音 `generate-scene-tts` (⚠️ 务必严格采用story_board中场景的script或dialog作为配音输入文本)
26
+ * 配音 `generate-scene-tts` (⚠️ 务必严格采用storyboard中场景的script或dialog作为配音输入文本)
27
27
  * 视频 `generate-video`
28
28
  * 背景音乐 `generate-music`
29
29
  **模式二:角色三视图生成**
30
30
  * 角色三视图 `generate-character-image` (为主要角色生成三视图)
31
31
  * 分镜图片 `generate-image` (依次生成各分镜图片,使用角色三视图作为参考)
32
- * 配音 `generate-scene-tts` (⚠️ 务必严格采用story_board中场景的script或dialog作为配音输入文本)
32
+ * 配音 `generate-scene-tts` (⚠️ 务必严格采用storyboard中场景的script或dialog作为配音输入文本)
33
33
  * 视频 `generate-video`
34
34
  * 背景音乐 `generate-music`
35
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
35
+ 10. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
36
36
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
37
37
  12. 关闭项目 → `project-close`
38
38
 
@@ -42,7 +42,7 @@
42
42
  - **情感共鸣:** 每个分镜都必须承载明确的情感价值,能够引发观众的情感共鸣。
43
43
  - **视觉一致性:** 画面风格、色彩基调、角色形象必须在整个视频中保持一致。
44
44
  - **叙事连贯性:** 分镜之间必须有清晰的逻辑关系和情感递进。
45
- - **技术规范:** 严格遵循 story_board.json 和 draft_content.json 的技术规范。
45
+ - **技术规范:** 严格遵循 storyboard.json 和 draft_content.json 的技术规范。
46
46
 
47
47
  ### 一致性保证
48
48
  - **角色一致性:** 使用 `generate-character-image` 生成的三视图必须作为后续所有分镜图片的角色参考
@@ -51,10 +51,10 @@
51
51
  - **生成顺序:** 严格按照分镜顺序依次生成图片,避免角色形象在不同分镜间出现差异
52
52
 
53
53
  ### 视频生成质量保证
54
- - **连续分镜检查:** `generate-video` 生成视频时,注意检查对应的 story_board 中当前分镜的 `is_continuous` 字段是否为 `true`。如果为 `true`,则表示当前分镜是连续分镜,需要将下一个分镜的首帧图片作为当前分镜的尾帧图片(end_frame)传入。
55
- - **配音同步:** 确保 `generate-scene-tts` 的输入文本与 story_board 中的 script 或 dialog 完全一致
54
+ - **连续分镜检查:** `generate-video` 生成视频时,注意检查对应的 storyboard 中当前分镜的 `is_continuous` 字段是否为 `true`。如果为 `true`,则表示当前分镜是连续分镜,需要将下一个分镜的首帧图片作为当前分镜的尾帧图片(end_frame)传入。
55
+ - **配音同步:** 确保 `generate-scene-tts` 的输入文本与 storyboard 中的 script 或 dialog 完全一致
56
56
  - **时长规范:** 视频时长必须为整秒数,配音、音效等可以精确到毫秒,如有对应配音,默认视频时长为 ceil(配音时长) 秒数
57
- - **内容一致性:** story_board 文案 script 和配音内容必须严格一致,如生成配音时修改了文案,必须及时更新 story_board
57
+ - **内容一致性:** storyboard 文案 script 和配音内容必须严格一致,如生成配音时修改了文案,必须及时更新 storyboard
58
58
  - **音画协调:** 背景音乐 `generate-music` 必须与故事情感基调和节奏相匹配
59
59
 
60
60
  ## 专业技巧
@@ -6,7 +6,7 @@ description: Optimize storyboards for movie production; trigger when user reques
6
6
  # 🎬 分镜优化(Storyboard Optimization)
7
7
 
8
8
  ## 🧭 任务目标
9
- 你是**专业电影级分镜指导 AI**,任务是根据提供的 `story_board.json` 文件内容,
9
+ 你是**专业电影级分镜指导 AI**,任务是根据提供的 `storyboard.json` 文件内容,
10
10
  对每个场景进行**影视化优化**,并**直接修改 JSON 内容**。
11
11
  优化应在保持原始剧情、角色与视觉风格的前提下,实现画面表现力与叙事张力的提升。
12
12
 
@@ -18,7 +18,7 @@ description: Optimize storyboards for movie production; trigger when user reques
18
18
  2. 提升镜头语言(构图、景别、节奏、光影)。
19
19
  3. 丰富人物的**微表情与情绪递进**。
20
20
  4. 根据用户明确的需求或剧情特点统一整体风格。
21
- 5. 优化结果必须**保持 story_board.json 的结构不变**,仅在字段内容上修改。
21
+ 5. 优化结果必须**保持 storyboard.json 的结构不变**,仅在字段内容上修改。
22
22
 
23
23
  ### 🎯 优化顺序原则
24
24
  **重要:** 必须按以下顺序进行优化:
@@ -122,7 +122,7 @@ description: Optimize storyboards for movie production; trigger when user reques
122
122
  ---
123
123
 
124
124
  ## 🧱 输出要求
125
- - 直接修改 `story_board.json` 文件(勿破坏 schema 结构)。
125
+ - 直接修改 `storyboard.json` 文件(勿破坏 schema 结构)。
126
126
  - 仅修改以下字段内容:
127
127
  - `"start_frame"`
128
128
  - `"video_prompt"`
@@ -202,7 +202,7 @@ description: Optimize storyboards for movie production; trigger when user reques
202
202
 
203
203
  ## 🧠 输出行为约束
204
204
  1. **禁止新增角色或剧情**。
205
- 2. **禁止输出分析文字**,只修改 `story_board.json`。
205
+ 2. **禁止输出分析文字**,只修改 `storyboard.json`。
206
206
  3. **所有优化都应体现在字段文本中**(特别是 `video_prompt` 与 `start_frame`)。
207
207
  4. 确保优化后每一幕的镜头语言、情绪节奏、光影表现都具备专业电影感。
208
208
 
@@ -213,7 +213,7 @@ description: Optimize storyboards for movie production; trigger when user reques
213
213
  **目标:** 确认优化结果符合预期,准备后续任务。
214
214
 
215
215
  1. 总结优化结果,确认所有场景均符合影视分镜逻辑。
216
- 2. 调用 `retrieve-rules-context` 召回上下文,之后使用更新后的 story_board.json 内容继续执行其他任务。
216
+ 2. 调用 `retrieve-rules-context` 召回上下文,之后使用更新后的 storyboard.json 内容继续执行其他任务。
217
217
 
218
218
  ---
219
219
 
@@ -7,7 +7,7 @@ description: 连续性技术是指在视频创作中,通过首尾帧、连续
7
7
 
8
8
  首尾帧一镜到底,是指你可以将一个场景的首帧图片作为上一个场景的尾帧图片,从而实现视频的连续性。
9
9
 
10
- 你可以将 story_board.json 中对应 scene 的 `is_continuous` 字段设为 `true`,这将在生成视频时启用首位帧一致性检查。
10
+ 你可以将 storyboard.json 中对应 scene 的 `is_continuous` 字段设为 `true`,这将在生成视频时启用首位帧一致性检查。
11
11
 
12
12
  ## 镜头自然延伸
13
13
 
@@ -13,21 +13,21 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
13
13
 
14
14
  1. 确保项目已正确开启:`project-open` 已被调用
15
15
  2. 根据剧情设计选择语音 → 使用 `search-voices` 选择合适的配音音色,若用户指定了voice_id,则直接使用该音色ID,无需验证
16
- 3. 剧本规范 → 调用`get-storyboard-schema`获取最新剧本规范 → 编写 story_board.json(受众、脚本、风格、角色、场景)
16
+ 3. 剧本规范 → 调用`get-schema`获取分镜规范 → 编写 storyboard.json(受众、脚本、风格、角色、场景)
17
17
  4. 剧本润色 → 检查并修改剧本的角色,确保每个场景角色的外貌、妆造、衣着特征在 start_frame 中描述完整以保证一致性
18
18
  5. 素材生成(严格按顺序)
19
19
  1) 配音 `generate-scene-tts`
20
20
  2) 图片 `generate-image` + 视频 `generate-video`
21
21
  或 `generate-video-by-ref` 参考图生视频
22
22
  3) 背景音乐 `generate-music`
23
- 6. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
23
+ 6. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
24
24
  7. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
25
25
  8. 关闭项目 → `project-close`
26
26
 
27
27
  ### 修改
28
28
 
29
29
  1. 确保项目已启动 → `project-open`
30
- 2. 修改脚本 → 更新 story_board.json
30
+ 2. 修改脚本 → 更新 storyboard.json
31
31
  3. 更新素材 → 重新生成需要修改的素材
32
32
  4. 更新技术规范 → 更新 draft_content.json
33
33
  5. 执行渲染 → `compile-and-run` 自动下载成品
@@ -39,12 +39,12 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
39
39
 
40
40
  1. `project-open`
41
41
  2. 使用`search-voices`选择合适的配音音色
42
- 3. 创建 story_board.json
42
+ 3. 创建 storyboard.json
43
43
  - 在每个场景中指定选定的voice_id
44
- - 可反复修改 story_board.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
44
+ - 可反复修改 storyboard.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
45
45
  4. 严格按顺序为每个场景生成素材:
46
46
  此时根据每个场景不同的特点,有两种视频素材生成方式:
47
- * 方式一(story_board 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
47
+ * 方式一(storyboard 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
48
48
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
49
49
  2) `generate-image`生成首帧图片→`generate-video`生成视频
50
50
  * 视频生成回退策略:
@@ -53,14 +53,14 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
53
53
  - Ken Burns特效选择(回退时使用):
54
54
  - 6秒内:zoom类型(zoom_in, zoom_out)
55
55
  - 6秒以上:pan类型(pan_left, pan_right, pan_up, pan_down)
56
- * 方式二(story_board 的当前 scene 设置 video_type: references):
56
+ * 方式二(storyboard 的当前 scene 设置 video_type: references):
57
57
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
58
58
  2) `generate-video-by-ref`参考图生视频
59
59
  5. `generate-music`生成背景音乐
60
60
  6. 创建`draft_content.json`:
61
61
  - ⚠️ 必须包含完整的VideoProject结构
62
62
  - 除非用户明确拒绝,否则`draft_content.json`中必须包含字幕:
63
- - 字幕文本严格一致性:字幕内容必须与 story_board.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
63
+ - 字幕文本严格一致性:字幕内容必须与 storyboard.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
64
64
  - 严格禁止:任何形式的简化、概括或改写,禁止擅自增加、删除或修改任何文字内容
65
65
  - 时间轴同步:字幕时间轴必须与对应的视频精确同步(无延迟,与视频时间轴对齐)
66
66
  7. `compile-and-run`渲染并自动下载成片
@@ -79,7 +79,7 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
79
79
  * 音色选择:使用`search-voices`筛选配音音色,匹配场景情感
80
80
  * 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
81
81
  * 时长控制:配音超16秒需简化台词或拆分场景
82
- - 如简化台词,请务必先修改 story_board.json 中的 script 或 dialog 字段,确保生成语音时的一致性
82
+ - 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
83
83
  * 视频生成策略:
84
84
  * 方式一:
85
85
  - 默认**优先使用**`generate-video`生成动态视频
@@ -103,7 +103,7 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
103
103
  - 所有clip的startMs都基于视频时间轴计算
104
104
  * 检查字幕:
105
105
  - 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
106
- - 文本严格一致性:字幕内容**必须**与 story_board.json 中的 script 字段逐字对应
106
+ - 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
107
107
  - 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
108
108
  - 字幕显示时间不受转场滤镜影响,保持与音频同步
109
109
  * 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
@@ -14,11 +14,11 @@ description: 创作专业音乐MV,基于 Zerocut 自主完成音乐MV成片的
14
14
  3. 音乐创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
15
15
  4. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
16
16
  5. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
17
- 6. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
17
+ 6. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
18
18
  7. 主要角色形象塑造 → `generate-character-image` → 生成主要角色形象参考图(三视图)
19
19
  8. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
20
20
  9. 首尾帧视频生成 → `generate-video` → **可选择使用连续镜头方式**:根据创意需要,可以选择以下一场景的 start_frame 作为上一场景的 end_frame 来实现场景间连续性,或采用独立场景切换方式,每段视频的实际时长应匹配 timeline_analysis 中 proposed_video_scenes 对应场景的 video_duration_s
21
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
21
+ 10. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
22
22
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
23
23
  12. 关闭项目 → `project-close`
24
24
 
@@ -145,7 +145,7 @@ description: 创作专业音乐MV,基于 Zerocut 自主完成音乐MV成片的
145
145
  - 通过 timeline_analysis 中的 proposed_video_scenes 中的 script、video_start_s、video_duration_s 内容,生成对应的字幕
146
146
  - ‼️ 字幕必须生成,且符合核心设定的字幕规范
147
147
 
148
- ### story_board 规范
148
+ ### storyboard 规范
149
149
 
150
150
  - 场景连续性设计:
151
151
  - 连续镜头模式:如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧连续方式,用下一个场景的 start_frame 作为当前场景的 end_frame
@@ -6,32 +6,33 @@
6
6
 
7
7
  0. 下面提到的“调用xxx”指的都是调用zerocut的mcp工具
8
8
  1. 任务会话:执行任何任务前,先调用`project-open`启动会话,完成任务后调用`project-close`关闭会话
9
+ - 注意:务必先等待`project-open`返回成功,再执行后续任务,⚠️禁止同时调用`project-open`和其他mcp工具!
9
10
  2. 严格遵守指令和纪律
10
11
  * 严格执行纪律:确保百分百按照用户需求执行标准工作流程
11
12
  * 视频创作工作是非常严谨之工作,改动必须最小化,决不允许擅自发挥
12
13
  * 修改生成的任何 json 配置文件时,尽量通过**写代码**的方式进行修改,避免手动编辑
13
- * 部分配置文件有定义 schema,如`story_board.json`、`draft_content.json`,创建和修改时务必先获取 schema 并严格遵守其规范
14
+ * 部分配置文件有定义 schema,如`storyboard.json`、`draft_content.json`,创建和修改时务必先获取 schema 并严格遵守其规范
14
15
  3. 保持上下文信息的有效性
15
16
  * 任何一次对话,确保已召回规则上下文,规则上下文可通过`retrieve-rules-context`工具召回,任何对话开启前如有需要优先调用该接口,也可以在每次对话都主动调用。
16
- * 在任务执行过程中,执行创建或修改 story_board.json 或 draft_content.json 时,也应再次通过`retrieve-rules-context`重新找回最新的规则上下文,再次确保当前任务的执行准确无误。
17
+ * 在任务执行过程中,执行创建或修改 storyboard.json 或 draft_content.json 时,也应再次通过`retrieve-rules-context`重新找回最新的规则上下文,再次确保当前任务的执行准确无误。
17
18
  4. 内容一致性
18
- *`generate-image`生成分镜图片素材时,应严格按照 story_board.json 中分镜场景的 start_frame、end_frame(如有) 字段描述
19
- *`generate-video`或`generate-video-by-ref`生成分镜视频素材时,应严格按照 story_board.json 中分镜场景的 video_prompt 字段描述
19
+ *`generate-image`生成分镜图片素材时,应严格按照 storyboard.json 中分镜场景的 start_frame、end_frame(如有) 字段描述
20
+ *`generate-video`或`generate-video-by-ref`生成分镜视频素材时,应严格按照 storyboard.json 中分镜场景的 video_prompt 字段描述
20
21
  * 如生成配音
21
- * 务必保证 story_board.json 中的 voice_id 与配音音色准确匹配,如果是配音前通过搜索选择的音色ID,务必在 story_board.json 中及时更新
22
- * 务必保证生成配音(tts)的文本内容与 story_board.json 中 script(或dialog) 字段的文本内容完全一致,如需调整内容,请同时更新 story_board 中的内容
23
- * 务必保证 story_board.json 与 draft_content.json 中的内容相对应,任何修改都必须同步更新二者
22
+ * 务必保证 storyboard.json 中的 voice_id 与配音音色准确匹配,如果是配音前通过搜索选择的音色ID,务必在 storyboard.json 中及时更新
23
+ * 务必保证生成配音(tts)的文本内容与 storyboard.json 中 script(或dialog) 字段的文本内容完全一致,如需调整内容,请同时更新 storyboard 中的内容
24
+ * 务必保证 storyboard.json 与 draft_content.json 中的内容相对应,任何修改都必须同步更新二者
24
25
  * 务必保证素材与 draft_content.json 中的引用一致
25
26
  * 务必保证draft_content.json 中的时间轴与素材的时间轴完全一致(素材准确时长在生成过程中已自动实时记录在 media_logs.json 文件中)
26
- * 务必保证 draft_content.json 中的字幕与 story_board.json 中的字幕(场景script或dialog字段)的文本内容完全一致
27
+ * 务必保证 draft_content.json 中的字幕与 storyboard.json 中的字幕(场景script或dialog字段)的文本内容完全一致
27
28
  5. 质量保证
28
- * story_board.json 内容检查
29
+ * storyboard.json 内容检查
29
30
  * 起始帧 start_frame 务必正确完整地融合stage_atmosphere各属性,且用单引号标记图中要绘制的CJK文字。
30
31
  * video_prompt 务必正确融合stage_atmosphere的camera描述的运镜方式。
31
- * 若用户需求中明确包含“自动优化分镜”,则必须在创建 story_board.json 后立即调用`do-storyboard-optimization`工具优化 story_board.json
32
+ * 若用户需求中明确包含“自动优化分镜”,则必须在创建 storyboard.json 后立即调用`do-storyboard-optimization`工具优化 storyboard.json
32
33
  * is_continuous 为 true 的场景,生成视频时,务必采用连续分镜
33
34
  * 字幕优化
34
- * 在保证字幕文本内容与 story_board.json 中的 script(或dialog) 字段的文本内容完全一致的前提下,应根据 tts 返回的`captions.utterances`字段对字幕的显示进行优化,将过长的字幕分段显示,在 draft_content.json 中使用分段字幕,captions 的内容在 media_logs.json 中可查询到。
35
+ * 在保证字幕文本内容与 storyboard.json 中的 script(或dialog) 字段的文本内容完全一致的前提下,应根据 tts 返回的`captions.utterances`字段对字幕的显示进行优化,将过长的字幕分段显示,在 draft_content.json 中使用分段字幕,captions 的内容在 media_logs.json 中可查询到。
35
36
 
36
37
  ## 标准工作流程
37
38
 
@@ -42,8 +43,8 @@
42
43
  3. 根据用户需求补充规则上下文(重要‼️)→创建或修改 .trae/rules/custom_rules.md 将用户的需求补充进去
43
44
  4. 需求分析与规划→分析用户需求,制定执行计划
44
45
  5. 收集相关资料(可选)→如有需要,使用搜索工具收集相关资料
45
- 6. 素材准备,根据`retrieve-rules-context`召回的规则上下文,构建 story_board.json 以备成必要的素材(如视频、音频、图片等)
46
- 7. 如有需要或用户明确指定“自动优化分镜”,你在创建 story_board.json 后,应立即调用`do-storyboard-optimization`工具优化 story_board.json
46
+ 6. 素材准备,根据`retrieve-rules-context`召回的规则上下文,构建 storyboard.json 以备成必要的素材(如视频、音频、图片等)
47
+ 7. 如有需要或用户明确指定“自动优化分镜”,你在创建 storyboard.json 后,应立即调用`do-storyboard-optimization`工具优化 storyboard.json
47
48
  8. 素材生成阶段,按素材类型(音频、图片、视频)分别依次生成,每次生成前,务必核查【素材生成规则】。
48
49
  9. 检查 media_logs.json 确定素材时间轴→生成 draft_content.json→执行渲染→`compile-and-run`输出成品并自动下载到本地
49
50
  10. 关闭项目→`project-close`
@@ -54,7 +55,7 @@
54
55
  2. 根据用户意图召回规则上下文→`retrieve-rules-context`
55
56
  3. 判断当前处于什么阶段→制定执行计划
56
57
  4. 根据用户需求补充规则上下文(重要‼️)→修改 .trae/rules/custom_rules.md 将用户的需求变更补充进去
57
- 5. 更新素材→根据`retrieve-rules-context`召回的规则上下文,按需更新 story_board.json、draft_content.json 等文件的内容和相关素材。
58
+ 5. 更新素材→根据`retrieve-rules-context`召回的规则上下文,按需更新 storyboard.json、draft_content.json 等文件的内容和相关素材。
58
59
  - 修改素材(指音频、视频、图片)时,除非用户指定覆盖原文件,否则保留原文件,变更文件名生成新文件(比如 sc01_bg_new.png)。
59
60
  6. 使用修改后的 draft_content.json 执行渲染→`compile-and-run`输出成品并自动下载到本地
60
61
  7. 关闭项目→`project-close`
@@ -65,7 +66,7 @@
65
66
  projects/<id>/
66
67
  ├─ materials/ # 素材文件
67
68
  ├─ output/ # 渲染输出
68
- ├─ story_board.json # 创意脚本
69
+ ├─ storyboard.json # 创意脚本
69
70
  └─ draft_content.json # 技术规范
70
71
  ```
71
72
 
@@ -85,27 +86,27 @@ projects/<id>/
85
86
  ## 素材生成规则
86
87
 
87
88
  ### 核心原则(不得违反‼️)
88
- 1. **绝对服从story_board.json**:生成任何素材时,必须严格按照story_board.json中对应字段的具体描述执行
89
+ 1. **绝对服从storyboard.json**:生成任何素材时,必须严格按照storyboard.json中对应字段的具体描述执行
89
90
  2. **字段优先级**:
90
91
  - 生成起始帧图片:严格按照`start_frame`字段描述
91
92
  - 生成视频:严格按照`video_prompt`字段描述
92
93
  - 生成配音:严格按照`script`或`dialog`字段描述
93
94
  3. **禁止信息混淆**:不得将角色总体特征、起始帧状态、视频过程变化等不同概念混淆使用
94
- 4. **零容忍擅自发挥**:任何偏离story_board.json具体字段描述的行为都属于擅自发挥,必须严格避免
95
+ 4. **零容忍擅自发挥**:任何偏离storyboard.json具体字段描述的行为都属于擅自发挥,必须严格避免
95
96
 
96
97
  ## JSON 文件一致性与质量规则
97
98
 
98
99
  ### 通用
99
100
  1. 引号规则:JSON格式中,字符串中如包含引号,优先使用单引号,双引号需转义。
100
101
 
101
- ### story_board.json
102
+ ### storyboard.json
102
103
 
103
104
  1. 一致性:生成和修改前先获取 schema
104
- 2. story_board.json 中的 start_frame、end_frame 分别对应视频生成`generate-video`的首帧和尾帧
105
- 3. story_board.json 中的 video_prompt 对应视频生成`generate-video`的 prompt
106
- 4. story_board.json 中的 script 对应场景台词,对应场景语音生成`generate-scene-tts`,如多人台词则使用`dialog`数组:`[{name, script}]`
105
+ 2. storyboard.json 中的 start_frame、end_frame 分别对应视频生成`generate-video`的首帧和尾帧
106
+ 3. storyboard.json 中的 video_prompt 对应视频生成`generate-video`的 prompt
107
+ 4. storyboard.json 中的 script 对应场景台词,对应场景语音生成`generate-scene-tts`,如多人台词则使用`dialog`数组:`[{name, script}]`
107
108
 
108
- #### story_board.json 示例:
109
+ #### storyboard.json 示例:
109
110
 
110
111
  ```json
111
112
  {
@@ -244,7 +245,7 @@ projects/<id>/
244
245
  {
245
246
  "id": "subtitle-001",
246
247
  "text": "健康的身体本身就是一座坚固的'堡垒'。",
247
- "syncStrategy": "与story_board完全一致",
248
+ "syncStrategy": "与storyboard完全一致",
248
249
  "startMs": 0,
249
250
  "endMs": 8000,
250
251
  "style": {
@@ -278,15 +279,13 @@ projects/<id>/
278
279
  1. 生成视频的几种方式
279
280
  - 首帧图生视频(默认采用):先根据 start_frame 生成首帧图片如 sc01_start.png,然后用该图片作为视频的第一帧,以 video_prompt 的提示词用`generate-image`生成视频
280
281
  - 首尾帧生视频:先根据 start_frame 生成首帧图片如 sc01_start.png,再根据 end_frame 生成尾帧图片如 sc01_end.png,用这两张图片作为视频的首尾帧,以 video_prompt 的提示词用`generate-image`生成视频
281
- - 参考图生视频:根据分镜的参考图片(可选,并且如有,需确保预先生成),将 story_board 中当前 scene 的 video_type 设为 references,不生成 start_frame,直接以 video_prompt 的提示词用`generate-image-by-ref`生成视频
282
- - 连续镜头:如果用户不希望当前场景和下一次场景之间切换镜头,或用户希望场景之间有连续的变化(比如人物在场景中移动),story_board 中对应 scene 的`is_continuous`字段将为`true`。此时将下一场景的首帧图片作为当前场景的尾帧(end_frame)参数,以 video_prompt 的提示词用`generate-image`生成当前场景的视频
282
+ - 参考图生视频:根据分镜的参考图片(可选,并且如有,需确保预先生成),将 storyboard 中当前 scene 的 video_type 设为 references,不生成 start_frame,直接以 video_prompt 的提示词用`generate-image-by-ref`生成视频
283
+ - 连续镜头:如果用户不希望当前场景和下一次场景之间切换镜头,或用户希望场景之间有连续的变化(比如人物在场景中移动),storyboard 中对应 scene 的`is_continuous`字段将为`true`。此时将下一场景的首帧图片作为当前场景的尾帧(end_frame)参数,以 video_prompt 的提示词用`generate-image`生成当前场景的视频
283
284
 
284
285
  2. 一镜到底:当用户说采用“一镜到底”时,应当生成所有场景首帧图片再开始生成视频,每个视频都使用连续镜头。
285
286
 
286
287
  3. 镜头自然延伸:和“一镜到底”不同的连续画面技术,当用户说“镜头自然延伸”时,应当在生成视频时,设置saveLastFrameAs参数,将其返回的图片作为下一场景的首帧图片。
287
288
 
288
- 4. 优化图片:当用户或工作流程要求优化图片时,可运行`image-aligner`工具,根据分析结果调整提示词,待用户确认后,修改story_board,重新生成图片。
289
-
290
289
  ## 工具优先级
291
290
 
292
291
  1. 优先使用系统自有搜索工具
@@ -1 +1 @@
1
- {"version":3,"file":"zerocut.d.ts","sourceRoot":"","sources":["../../../src/mcp/servers/zerocut.ts"],"names":[],"mappings":";AAqjLA,wBAAsB,GAAG,kBAKxB"}
1
+ {"version":3,"file":"zerocut.d.ts","sourceRoot":"","sources":["../../../src/mcp/servers/zerocut.ts"],"names":[],"mappings":";AA6+KA,wBAAsB,GAAG,kBAKxB"}