cerevox 2.43.1 → 3.0.0-alpha.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (39) hide show
  1. package/dist/core/ai.d.ts +28 -3
  2. package/dist/core/ai.d.ts.map +1 -1
  3. package/dist/core/ai.js +45 -16
  4. package/dist/core/ai.js.map +1 -1
  5. package/dist/mcp/servers/prompts/actions/storyboard_optimization.md +5 -5
  6. package/dist/{utils/videoproject-schema.json → mcp/servers/prompts/draft_content-schema.json} +3 -3
  7. package/dist/mcp/servers/prompts/rules/creative-ad.md +6 -6
  8. package/dist/mcp/servers/prompts/rules/expert.md +25 -25
  9. package/dist/mcp/servers/prompts/rules/freeform.md +2 -3
  10. package/dist/mcp/servers/prompts/rules/general-video.md +10 -10
  11. package/dist/mcp/servers/prompts/rules/material-creation.md +2 -2
  12. package/dist/mcp/servers/prompts/rules/music-video.md +3 -3
  13. package/dist/mcp/servers/prompts/rules/stage-play.md +4 -4
  14. package/dist/mcp/servers/prompts/rules/story-telling.md +8 -8
  15. package/dist/mcp/servers/prompts/skills/storyboard/storyboard-optimization-skill.md +5 -5
  16. package/dist/mcp/servers/prompts/skills/video/continuity-techniques.md +1 -1
  17. package/dist/mcp/servers/prompts/skills/workflows/general-video.md +10 -10
  18. package/dist/mcp/servers/prompts/skills/workflows/music-video.md +3 -3
  19. package/dist/mcp/servers/prompts/zerocut-core.md +26 -27
  20. package/dist/mcp/servers/zerocut.d.ts.map +1 -1
  21. package/dist/mcp/servers/zerocut.js +397 -521
  22. package/dist/mcp/servers/zerocut.js.map +1 -1
  23. package/dist/utils/coze.d.ts +1 -0
  24. package/dist/utils/coze.d.ts.map +1 -1
  25. package/dist/utils/coze.js +19 -0
  26. package/dist/utils/coze.js.map +1 -1
  27. package/package.json +2 -2
  28. package/dist/timeline-editor/index.d.ts +0 -42
  29. package/dist/timeline-editor/index.d.ts.map +0 -1
  30. package/dist/timeline-editor/index.js +0 -82
  31. package/dist/timeline-editor/index.js.map +0 -1
  32. package/dist/timeline-editor/public/app.js +0 -2086
  33. package/dist/timeline-editor/public/index.html +0 -141
  34. package/dist/timeline-editor/public/style.css +0 -695
  35. package/dist/timeline-editor/server.d.ts +0 -137
  36. package/dist/timeline-editor/server.d.ts.map +0 -1
  37. package/dist/timeline-editor/server.js +0 -418
  38. package/dist/timeline-editor/server.js.map +0 -1
  39. /package/dist/{utils → mcp/servers/prompts}/storyboard-schema.json +0 -0
@@ -36,9 +36,9 @@
36
36
 
37
37
  **Action**
38
38
  1) 与用户确认思路是否正确且符合需求
39
- 2) 调用`get-storyboard-schema`获取分镜规范
40
- 3) 根据确认结果创建项目目录下的 story_board.json 文件
41
- 4) Review 生成的 story_board.json 文件,对其进行初步优化
39
+ 2) 调用`get-schema`获取分镜规范
40
+ 3) 根据确认结果创建项目目录下的 storyboard.json 文件
41
+ 4) Review 生成的 storyboard.json 文件,对其进行初步优化
42
42
  你可以做的优化动作:
43
43
  * 分镜拆分:将一个大的分镜拆分成多个小的分镜,每个分镜都有自己的场景线稿、角色设定、背景描述等。
44
44
  * 拆分分镜命名规则:sc02 -> sc02-1、sc02-2...
@@ -47,7 +47,7 @@
47
47
  * 保持场景、环境的连续性、一致性
48
48
 
49
49
  **Feedback**
50
- Review story_board.json 文件,将你的创作过程整理并汇报给用户,确认分镜设计是否符合需求,是否有任何问题需要解决。
50
+ Review storyboard.json 文件,将你的创作过程整理并汇报给用户,确认分镜设计是否符合需求,是否有任何问题需要解决。
51
51
  将当前的执行结果记录在 action_logs.json 中
52
52
 
53
53
  3. 创建通用素材,如人物角色三视图、主要道具概念图、背景概念图等。
@@ -57,12 +57,12 @@
57
57
 
58
58
  **Action**
59
59
  1) 与用户确认提示词是否符合需求
60
- 2) 根据确认结果更新 story_board.json
61
- 3) 创建项目目录下的 materials 目录,根据 story_board.json 使用 `generate-character-image` `generate-image` 等工具生成并保存素材
60
+ 2) 根据确认结果更新 storyboard.json
61
+ 3) 创建项目目录下的 materials 目录,根据 storyboard.json 使用 `generate-character-image` `generate-image` 等工具生成并保存素材
62
62
 
63
63
  **Feedback**
64
64
  1) Review materials 目录下的文件,确保生成成功。
65
- 2) 根据生成结果更新 story_board.json
65
+ 2) 根据生成结果更新 storyboard.json
66
66
  3) **与用户讨论**,确认是否有任何问题需要解决
67
67
  4) 将当前的执行结果记录在 action_logs.json 中
68
68
 
@@ -74,10 +74,10 @@
74
74
  **Action**
75
75
  1) 与用户确认各分镜的生成方式是否符合需求
76
76
  2) 根据确定的生成方式,对各分镜提示词进行优化(用 `do-storyboard-optimization` 工具)
77
- 3) 根据确认结果更新 story_board.json
77
+ 3) 根据确认结果更新 storyboard.json
78
78
 
79
79
  **Feedback**
80
- Review story_board.json 文件,**与用户讨论**,确认各分镜的生成方式是否符合需求,是否有任何问题需要解决。
80
+ Review storyboard.json 文件,**与用户讨论**,确认各分镜的生成方式是否符合需求,是否有任何问题需要解决。
81
81
  将当前的执行结果记录在 action_logs.json 中
82
82
 
83
83
  5. 创建主体场景线稿
@@ -88,12 +88,12 @@
88
88
 
89
89
  **Action**
90
90
  1) 与用户确认提示词是否符合需求
91
- 2) 根据确认结果更新 story_board.json (增加 `scene_line_art_prompt` 字段)
92
- 3) 创建项目目录下的 materials 目录,根据 story_board.json 使用 `generate-line-sketch` 等工具生成并保存各分镜主体场景线稿
91
+ 2) 根据确认结果更新 storyboard.json (增加 `scene_line_art_prompt` 字段)
92
+ 3) 创建项目目录下的 materials 目录,根据 storyboard.json 使用 `generate-line-sketch` 等工具生成并保存各分镜主体场景线稿
93
93
 
94
94
  **Feedback**
95
95
  1) Review materials 目录下的文件,确保生成成功。
96
- 2) 根据生成结果更新 story_board.json(增加 `scene_line_art_file` 字段)
96
+ 2) 根据生成结果更新 storyboard.json(增加 `scene_line_art_file` 字段)
97
97
  3) **与用户讨论**,确认是否有任何问题需要解决
98
98
  4) 将当前的执行结果记录在 action_logs.json 中
99
99
 
@@ -104,8 +104,8 @@
104
104
 
105
105
  **Action**
106
106
  1) 与用户确认提示词是否符合需求
107
- 2) 根据确认结果决定是否更新 story_board.json
108
- 3) 参考人物、道具、场景、线稿等素材,根据 story_board.json 使用 `generate-image` 等工具生成对应分镜图片素材
107
+ 2) 根据确认结果决定是否更新 storyboard.json
108
+ 3) 参考人物、道具、场景、线稿等素材,根据 storyboard.json 使用 `generate-image` 等工具生成对应分镜图片素材
109
109
 
110
110
  **Feedback**
111
111
  1) Review materials 目录下的文件,确保生成成功。
@@ -119,9 +119,9 @@
119
119
 
120
120
  **Action**
121
121
  1) 与用户确认对话台词是否符合需求
122
- 2) 根据确认结果更新 story_board.json( `script` 或 `dialog` 字段)
123
- 3) 根据设定使用 `search-voices` 搜索合适的人物配音ID并与用户确认,然后更新 story_board.json( `audio_id` 字段)
124
- 4) 根据 story_board.json 使用 `generate-scene-tts` 等工具生成并保存人物配音
122
+ 2) 根据确认结果更新 storyboard.json( `script` 或 `dialog` 字段)
123
+ 3) 根据设定使用 `search-voices` 搜索合适的人物配音ID并与用户确认,然后更新 storyboard.json( `audio_id` 字段)
124
+ 4) 根据 storyboard.json 使用 `generate-scene-tts` 等工具生成并保存人物配音
125
125
 
126
126
  **Feedback**
127
127
  1) Review materials 目录下的文件,确保生成成功。
@@ -135,9 +135,9 @@
135
135
 
136
136
  **Action**
137
137
  1) 与用户确认视频创作方式是否符合需求
138
- 2) 根据确认结果更新 story_board.json(`video_prompt` 和 `use_video_model` 字段)
138
+ 2) 根据确认结果更新 storyboard.json(`video_prompt` 和 `use_video_model` 字段)
139
139
  3) 根据配音和用户要求确定视频的时长
140
- 4) 根据 story_board.json 使用 `generate-video` `generate-video-by-ref` 等工具生成并保存视频
140
+ 4) 根据 storyboard.json 使用 `generate-video` `generate-video-by-ref` 等工具生成并保存视频
141
141
 
142
142
  **Feedback**
143
143
  1) Review materials 目录下的文件,确保生成成功。
@@ -152,7 +152,7 @@
152
152
  **Action**
153
153
  1) 与用户确认提示词是否符合需求
154
154
  2) 根据视频总时长确定BGM时长
155
- 3) 根据 story_board.json 使用 `generate-music` 等工具生成并保存BGM
155
+ 3) 根据 storyboard.json 使用 `generate-music` 等工具生成并保存BGM
156
156
 
157
157
  **Feedback**
158
158
  1) Review materials 目录下的文件,确保生成成功。
@@ -166,9 +166,9 @@
166
166
  检查并确定配音对话台词以准备生成字幕
167
167
 
168
168
  **Action**
169
- 1) 将检查结果与用户确认,必要时更新 story_board.json
170
- 2) 调用 `get-video-project-schema` 获取配置 schema
171
- 3) 根据确认的结果创建 draft_content.json 文件(要先获取 schema)
169
+ 1) 将检查结果与用户确认,必要时更新 storyboard.json
170
+ 2) 调用 `get-schema` 获取 draft_content 规范
171
+ 3) 根据确认的结果创建 draft_content.json 文件(务必要先获取 schema)
172
172
  4) 将当前的执行结果记录在 action_logs.json 中
173
173
  5) 调用 `compile-and-run` 最终合成视频并下载
174
174
  6) 完成所有工作并总结,将总结记录在 action_logs.json 中
@@ -185,7 +185,7 @@
185
185
  * 时间控制:分镜视频素材只能是 2-16 秒之间,建议每个分镜 8 秒左右效果最佳
186
186
  * 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
187
187
  * 时长控制:配音超16秒需简化台词或拆分场景
188
- - 如简化台词,请务必先修改 story_board.json 中的 script 或 dialog 字段,确保生成语音时的一致性
188
+ - 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
189
189
  * 视频生成策略:
190
190
  * 方式一:
191
191
  - 默认**优先使用**`generate-video`生成动态视频
@@ -209,7 +209,7 @@
209
209
  - 所有clip的startMs都基于视频时间轴计算
210
210
  * 检查字幕:
211
211
  - 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
212
- - 文本严格一致性:字幕内容**必须**与 story_board.json 中的 script 字段逐字对应
212
+ - 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
213
213
  - 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
214
214
  - 字幕显示时间不受转场滤镜影响,保持与音频同步
215
215
  * 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
@@ -87,7 +87,7 @@
87
87
 
88
88
  ### 分镜构思
89
89
 
90
- - 如果用户和你讨论视频剧情,或者已经有明确的场景想法,你使用 `'get-storyboard-schema` 工具来获知如何创建故事板,然后用故事板来帮助用户构思视频分镜
90
+ - 如果用户和你讨论视频剧情,或者已经有明确的场景想法,你使用 `'get-schema` 工具来获知如何创建故事板,然后用故事板来帮助用户构思视频分镜
91
91
  - 在所有和剧情、设定有关的问题时,你都要先理解用户想法然后更新故事板,并与用户确认
92
92
  - 尤其是在生成素材前,能更新故事板就及时更新,以免后续遗忘信息,造成不一致
93
93
 
@@ -103,7 +103,6 @@
103
103
  - `generate-line-sketch`: 你拥有根据用户描述生成主体或环境线稿的能力,这对于AI视频分镜场景创作十分重要,尤其是对场景一致性要求很高的场合,主体线稿能够确保多主体的站位、姿势或者关键内容一致,而背景线稿能保证场景关键元素的一致。你可以在处理用户诉求时推荐用户使用线稿工具
104
104
  - `generate-image`: 通用图片生成工具,你可以根据用户描述生成任意图片,而且可以使用多张参考图(支持主体角色、主体物品和背景),这在创作场景中非常有用。
105
105
  - `edit-image`:图片局部编辑工具,你可以根据用户描述局部编辑已有的图片
106
- - `image-aligner`:图片优化工具,你可以根据分析结果调整提示词,待用户确认后,修改story_board,重新生成图片
107
106
 
108
107
  #### 配音工具和音频处理工具
109
108
  - `search-voice`:你可以根据用户描述搜索并推荐合适的配音音色
@@ -119,7 +118,7 @@
119
118
  #### 后期制作和视频处理工具
120
119
  - `generate-music`:你可以用这个工具生成适合视频内容风格的BGM
121
120
  - `audio-video-sync`:音画(唇形)同步工具,你可以使用这个工具合并音频视频,或者为人物对口型
122
- - `get-video-project-schema`:你执行这个工具获取视频剪辑合成的JSON格式规范,用该规范创建 draft_content.json 文件,然后通过这个文件进行视频合成
121
+ - `get-schema`:你执行这个工具获取视频剪辑合成的JSON格式规范,用该规范创建 draft_content.json 文件,然后通过这个文件进行视频合成
123
122
  - `compile-and-run`:你执行这个工具编译并运行 draft_content.json 文件,生成视频
124
123
  - `run-ffmpeg`:你可以使用这个工具执行任意ffmpeg命令,这在需要对视频进行更复杂处理时非常有用
125
124
 
@@ -8,21 +8,21 @@
8
8
 
9
9
  1. 确保项目已正确开启:`project-open` 已被调用
10
10
  2. 根据剧情设计选择语音 → 使用 `search-voices` 选择合适的配音音色,若用户指定了voice_id,则直接使用该音色ID,无需验证
11
- 3. 剧本规范 → 调用`get-storyboard-schema`获取最新剧本规范 → 编写 story_board.json(受众、脚本、风格、角色、场景)
11
+ 3. 剧本规范 → 调用`get-schema`获取分镜规范 → 编写 storyboard.json(受众、脚本、风格、角色、场景)
12
12
  4. 剧本润色 → 检查并修改剧本的角色,确保每个场景角色的外貌、妆造、衣着特征在 start_frame 中描述完整以保证一致性
13
13
  5. 素材生成(严格按顺序)
14
14
  1) 配音 `generate-scene-tts`
15
15
  2) 图片 `generate-image` + 视频 `generate-video`
16
16
  或 `generate-video-by-ref` 参考图生视频
17
17
  3) 背景音乐 `generate-music`
18
- 6. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
18
+ 6. 技术规范 → 调用`get-schema`获取draft_content规范 → 根据规范创建 draft_content.json
19
19
  7. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
20
20
  8. 关闭项目 → `project-close`
21
21
 
22
22
  ### 修改
23
23
 
24
24
  1. 确保项目已启动 → `project-open`
25
- 2. 修改脚本 → 更新 story_board.json
25
+ 2. 修改脚本 → 更新 storyboard.json
26
26
  3. 更新素材 → 重新生成需要修改的素材
27
27
  4. 更新技术规范 → 更新 draft_content.json
28
28
  5. 执行渲染 → `compile-and-run` 自动下载成品
@@ -34,12 +34,12 @@
34
34
 
35
35
  1. `project-open`
36
36
  2. 使用`search-voices`选择合适的配音音色
37
- 3. 创建 story_board.json
37
+ 3. 创建 storyboard.json
38
38
  - 在每个场景中指定选定的voice_id
39
- - 可反复修改 story_board.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
39
+ - 可反复修改 storyboard.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
40
40
  4. 严格按顺序为每个场景生成素材:
41
41
  此时根据每个场景不同的特点,有两种视频素材生成方式:
42
- * 方式一(story_board 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
42
+ * 方式一(storyboard 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
43
43
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
44
44
  2) `generate-image`生成首帧图片→`generate-video`生成视频
45
45
  * 视频生成回退策略:
@@ -48,14 +48,14 @@
48
48
  - Ken Burns特效选择(回退时使用):
49
49
  - 6秒内:zoom类型(zoom_in, zoom_out)
50
50
  - 6秒以上:pan类型(pan_left, pan_right, pan_up, pan_down)
51
- * 方式二(story_board 的当前 scene 设置 video_type: references):
51
+ * 方式二(storyboard 的当前 scene 设置 video_type: references):
52
52
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
53
53
  2) `generate-video-by-ref`参考图生视频
54
54
  5. `generate-music`生成背景音乐
55
55
  6. 创建`draft_content.json`:
56
56
  - ⚠️ 必须包含完整的VideoProject结构
57
57
  - 除非用户明确拒绝,否则`draft_content.json`中必须包含字幕:
58
- - 字幕文本严格一致性:字幕内容必须与 story_board.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
58
+ - 字幕文本严格一致性:字幕内容必须与 storyboard.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
59
59
  - 严格禁止:任何形式的简化、概括或改写,禁止擅自增加、删除或修改任何文字内容
60
60
  - 时间轴同步:字幕时间轴必须与对应的视频精确同步(无延迟,与视频时间轴对齐)
61
61
  7. `compile-and-run`渲染并自动下载成片
@@ -74,7 +74,7 @@
74
74
  * 音色选择:使用`search-voices`筛选配音音色,匹配场景情感
75
75
  * 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
76
76
  * 时长控制:配音超16秒需简化台词或拆分场景
77
- - 如简化台词,请务必先修改 story_board.json 中的 script 或 dialog 字段,确保生成语音时的一致性
77
+ - 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
78
78
  * 视频生成策略:
79
79
  * 方式一:
80
80
  - 默认**优先使用**`generate-video`生成动态视频
@@ -98,7 +98,7 @@
98
98
  - 所有clip的startMs都基于视频时间轴计算
99
99
  * 检查字幕:
100
100
  - 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
101
- - 文本严格一致性:字幕内容**必须**与 story_board.json 中的 script 字段逐字对应
101
+ - 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
102
102
  - 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
103
103
  - 字幕显示时间不受转场滤镜影响,保持与音频同步
104
104
  * 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
@@ -2,10 +2,10 @@
2
2
 
3
3
  在该模式下,你只负责根据用户指令为用户准备素材,请**严格**按照以下模式执行:
4
4
 
5
- 1. **忽略**所有创建 story_board 的阶段,除非用户主动要求,不创建或修改 story_board
5
+ 1. **忽略**所有创建 storyboard 的阶段,除非用户主动要求,不主动创建或修改 storyboard
6
6
  2. **忽略**所有创建 draft_content 及合成视频阶段,除非用户主动要求,不执行 `compile-and-run` 指令
7
7
  3. 所有素材的生成一律**跳过一致性检查**
8
- 4. 除了 `get-storyboard-schema`、`get-video-project-schema`、`compile-and-run` 指令严格禁止主动执行外,其他一切工具均可按照用户需求自由调用。
8
+ 4. 除了 `compile-and-run` 指令严格禁止主动执行外,其他一切工具均可按照用户需求自由调用。
9
9
  5. 严格遵循用户的指令,一次执行最小步骤满足用户当前需求即可。
10
10
  6. 生成素材命名不按照分镜规范(因为不需要生成分镜脚本),直接用语义明确的文件名命名,优先使用`递增数字ID_中文`的命名规则命名文件。
11
11
  - 例如:`001_介绍.mp4`、`002_主体.mp4`、`003_结尾.mp4`等
@@ -9,11 +9,11 @@
9
9
  3. 音乐创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
10
10
  4. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
11
11
  5. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
12
- 6. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
12
+ 6. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
13
13
  7. 主要角色形象塑造 → `generate-character-image` → 生成主要角色形象参考图(三视图)
14
14
  8. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
15
15
  9. 首尾帧视频生成 → `generate-video` → **可选择使用连续镜头方式**:根据创意需要,可以选择以下一场景的 start_frame 作为上一场景的 end_frame 来实现场景间连续性,或采用独立场景切换方式,每段视频的实际时长应匹配 timeline_analysis 中 proposed_video_scenes 对应场景的 video_duration_s
16
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
16
+ 10. 技术规范 → 调用`get-schema`获取 dreft_content 规范 → 根据规范创建 draft_content.json
17
17
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
18
18
  12. 关闭项目 → `project-close`
19
19
 
@@ -140,7 +140,7 @@
140
140
  - 通过 timeline_analysis 中的 proposed_video_scenes 中的 script、video_start_s、video_duration_s 内容,生成对应的字幕
141
141
  - ‼️ 字幕必须生成,且符合核心设定的字幕规范
142
142
 
143
- ### story_board 规范
143
+ ### storyboard 规范
144
144
 
145
145
  - 场景连续性设计:
146
146
  - 连续镜头模式:如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧连续方式,用下一个场景的 start_frame 作为当前场景的 end_frame
@@ -8,13 +8,13 @@
8
8
  2. 音乐剧创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
9
9
  3. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
10
10
  4. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
11
- 5. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
11
+ 5. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
12
12
  6. 角色形象塑造 → `generate-character-image` → 生成角色形象参考图(三视图)
13
13
  7. 角色动作设计 → 根据角色形象和场景设计角色专业舞蹈动作及动作拆解 → 创建 character_actions.json
14
- 8. 角色动作舞台融合 → 根据 character_actions.json 融合角色动作到分镜场景,更新 story_board.json 中的 start_frame 和 video_prompt
14
+ 8. 角色动作舞台融合 → 根据 character_actions.json 融合角色动作到分镜场景,更新 storyboard.json 中的 start_frame 和 video_prompt
15
15
  9. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
16
16
  10. 首尾帧视频生成 → `generate-video` → **必须使用首尾帧一镜到底方式**:以下一场景的 start_frame 作为上一场景的 end_frame,确保场景间无缝连接,以增加镜头的连续性,每段视频的实际时长应完全等于 timeline_analysis.json 中 proposed_video_scenes 对应场景的 video_duration_s 数值(*1000转换为毫秒)
17
- 11. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
17
+ 11. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
18
18
  12. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
19
19
  13. 关闭项目 → `project-close`
20
20
 
@@ -250,7 +250,7 @@
250
250
  1. 场景视频时间轴必须与 timeline_analysis 中 proposed_video_scenes 里的各场景 video_duration_s 完全匹配
251
251
  2. 要包括歌曲字幕,注意字幕时间轴必须对齐正确,你可以根据 timeline_analysis.json 匹配和校正字幕
252
252
 
253
- ## story_board 规范
253
+ ## storyboard 规范
254
254
 
255
255
  - 如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧一镜到底,用下一个场景的 start_frame 作为当前场景的 end_frame。
256
256
 
@@ -19,20 +19,20 @@
19
19
  * **文案 ("script"字段):** 为每个分镜创作具备情感穿透力的文案。文案必须与画面描述紧密贴合,共同服务于情绪的传递。**禁止在文案中使用任何英文引号 ("")**。
20
20
  * **画面 ("start_frame"字段):** 为每个分镜构思详细的首帧画面。画风必须贴合用户诉求和故事氛围。描述需包含构图、光影、色彩、角色神态等关键视觉要素,达到可直接用于图片生成的标准。注意画面避免在运动、情感等处**锁死**,必须留有视频发挥的余地,比如人物哭泣,不要在一开始就让角色号啕大哭,动作、姿势、表情等也不要一开始就达到高潮,记住这只是首帧图片,需要为后续动画留有余地。
21
21
  * **动画 ("video_prompt"字段):** 为每个分镜构思详细的动画描述。动画必须与以画面作为首帧,描述紧密贴合,共同服务于情绪的传递。动画必须具备专业的镜头感和视觉效果,如镜头语言、运动、情感、动作等,也要考虑到光影和特效,且必须考虑到用户诉求和故事氛围。
22
- 8. 分镜整合输出: `get-storyboard-schema` 获取分镜场景规范 → 整合以上内容,创建初始 story_board.json
22
+ 8. 分镜整合输出: `get-schema` 获取分镜规范 → 整合以上内容,创建初始 storyboard.json
23
23
  9. **素材生成(根据选择的模式):**
24
24
  **模式一:批量图片生成**
25
25
  * 分组场景图片 `generate-image-serials` (一次性生成所有分镜图片)
26
- * 配音 `generate-scene-tts` (⚠️ 务必严格采用story_board中场景的script或dialog作为配音输入文本)
26
+ * 配音 `generate-scene-tts` (⚠️ 务必严格采用storyboard中场景的script或dialog作为配音输入文本)
27
27
  * 视频 `generate-video`
28
28
  * 背景音乐 `generate-music`
29
29
  **模式二:角色三视图生成**
30
30
  * 角色三视图 `generate-character-image` (为主要角色生成三视图)
31
31
  * 分镜图片 `generate-image` (依次生成各分镜图片,使用角色三视图作为参考)
32
- * 配音 `generate-scene-tts` (⚠️ 务必严格采用story_board中场景的script或dialog作为配音输入文本)
32
+ * 配音 `generate-scene-tts` (⚠️ 务必严格采用storyboard中场景的script或dialog作为配音输入文本)
33
33
  * 视频 `generate-video`
34
34
  * 背景音乐 `generate-music`
35
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
35
+ 10. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
36
36
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
37
37
  12. 关闭项目 → `project-close`
38
38
 
@@ -42,7 +42,7 @@
42
42
  - **情感共鸣:** 每个分镜都必须承载明确的情感价值,能够引发观众的情感共鸣。
43
43
  - **视觉一致性:** 画面风格、色彩基调、角色形象必须在整个视频中保持一致。
44
44
  - **叙事连贯性:** 分镜之间必须有清晰的逻辑关系和情感递进。
45
- - **技术规范:** 严格遵循 story_board.json 和 draft_content.json 的技术规范。
45
+ - **技术规范:** 严格遵循 storyboard.json 和 draft_content.json 的技术规范。
46
46
 
47
47
  ### 一致性保证
48
48
  - **角色一致性:** 使用 `generate-character-image` 生成的三视图必须作为后续所有分镜图片的角色参考
@@ -51,10 +51,10 @@
51
51
  - **生成顺序:** 严格按照分镜顺序依次生成图片,避免角色形象在不同分镜间出现差异
52
52
 
53
53
  ### 视频生成质量保证
54
- - **连续分镜检查:** `generate-video` 生成视频时,注意检查对应的 story_board 中当前分镜的 `is_continuous` 字段是否为 `true`。如果为 `true`,则表示当前分镜是连续分镜,需要将下一个分镜的首帧图片作为当前分镜的尾帧图片(end_frame)传入。
55
- - **配音同步:** 确保 `generate-scene-tts` 的输入文本与 story_board 中的 script 或 dialog 完全一致
54
+ - **连续分镜检查:** `generate-video` 生成视频时,注意检查对应的 storyboard 中当前分镜的 `is_continuous` 字段是否为 `true`。如果为 `true`,则表示当前分镜是连续分镜,需要将下一个分镜的首帧图片作为当前分镜的尾帧图片(end_frame)传入。
55
+ - **配音同步:** 确保 `generate-scene-tts` 的输入文本与 storyboard 中的 script 或 dialog 完全一致
56
56
  - **时长规范:** 视频时长必须为整秒数,配音、音效等可以精确到毫秒,如有对应配音,默认视频时长为 ceil(配音时长) 秒数
57
- - **内容一致性:** story_board 文案 script 和配音内容必须严格一致,如生成配音时修改了文案,必须及时更新 story_board
57
+ - **内容一致性:** storyboard 文案 script 和配音内容必须严格一致,如生成配音时修改了文案,必须及时更新 storyboard
58
58
  - **音画协调:** 背景音乐 `generate-music` 必须与故事情感基调和节奏相匹配
59
59
 
60
60
  ## 专业技巧
@@ -6,7 +6,7 @@ description: Optimize storyboards for movie production; trigger when user reques
6
6
  # 🎬 分镜优化(Storyboard Optimization)
7
7
 
8
8
  ## 🧭 任务目标
9
- 你是**专业电影级分镜指导 AI**,任务是根据提供的 `story_board.json` 文件内容,
9
+ 你是**专业电影级分镜指导 AI**,任务是根据提供的 `storyboard.json` 文件内容,
10
10
  对每个场景进行**影视化优化**,并**直接修改 JSON 内容**。
11
11
  优化应在保持原始剧情、角色与视觉风格的前提下,实现画面表现力与叙事张力的提升。
12
12
 
@@ -18,7 +18,7 @@ description: Optimize storyboards for movie production; trigger when user reques
18
18
  2. 提升镜头语言(构图、景别、节奏、光影)。
19
19
  3. 丰富人物的**微表情与情绪递进**。
20
20
  4. 根据用户明确的需求或剧情特点统一整体风格。
21
- 5. 优化结果必须**保持 story_board.json 的结构不变**,仅在字段内容上修改。
21
+ 5. 优化结果必须**保持 storyboard.json 的结构不变**,仅在字段内容上修改。
22
22
 
23
23
  ### 🎯 优化顺序原则
24
24
  **重要:** 必须按以下顺序进行优化:
@@ -122,7 +122,7 @@ description: Optimize storyboards for movie production; trigger when user reques
122
122
  ---
123
123
 
124
124
  ## 🧱 输出要求
125
- - 直接修改 `story_board.json` 文件(勿破坏 schema 结构)。
125
+ - 直接修改 `storyboard.json` 文件(勿破坏 schema 结构)。
126
126
  - 仅修改以下字段内容:
127
127
  - `"start_frame"`
128
128
  - `"video_prompt"`
@@ -202,7 +202,7 @@ description: Optimize storyboards for movie production; trigger when user reques
202
202
 
203
203
  ## 🧠 输出行为约束
204
204
  1. **禁止新增角色或剧情**。
205
- 2. **禁止输出分析文字**,只修改 `story_board.json`。
205
+ 2. **禁止输出分析文字**,只修改 `storyboard.json`。
206
206
  3. **所有优化都应体现在字段文本中**(特别是 `video_prompt` 与 `start_frame`)。
207
207
  4. 确保优化后每一幕的镜头语言、情绪节奏、光影表现都具备专业电影感。
208
208
 
@@ -213,7 +213,7 @@ description: Optimize storyboards for movie production; trigger when user reques
213
213
  **目标:** 确认优化结果符合预期,准备后续任务。
214
214
 
215
215
  1. 总结优化结果,确认所有场景均符合影视分镜逻辑。
216
- 2. 调用 `retrieve-rules-context` 召回上下文,之后使用更新后的 story_board.json 内容继续执行其他任务。
216
+ 2. 调用 `retrieve-rules-context` 召回上下文,之后使用更新后的 storyboard.json 内容继续执行其他任务。
217
217
 
218
218
  ---
219
219
 
@@ -7,7 +7,7 @@ description: 连续性技术是指在视频创作中,通过首尾帧、连续
7
7
 
8
8
  首尾帧一镜到底,是指你可以将一个场景的首帧图片作为上一个场景的尾帧图片,从而实现视频的连续性。
9
9
 
10
- 你可以将 story_board.json 中对应 scene 的 `is_continuous` 字段设为 `true`,这将在生成视频时启用首位帧一致性检查。
10
+ 你可以将 storyboard.json 中对应 scene 的 `is_continuous` 字段设为 `true`,这将在生成视频时启用首位帧一致性检查。
11
11
 
12
12
  ## 镜头自然延伸
13
13
 
@@ -13,21 +13,21 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
13
13
 
14
14
  1. 确保项目已正确开启:`project-open` 已被调用
15
15
  2. 根据剧情设计选择语音 → 使用 `search-voices` 选择合适的配音音色,若用户指定了voice_id,则直接使用该音色ID,无需验证
16
- 3. 剧本规范 → 调用`get-storyboard-schema`获取最新剧本规范 → 编写 story_board.json(受众、脚本、风格、角色、场景)
16
+ 3. 剧本规范 → 调用`get-schema`获取分镜规范 → 编写 storyboard.json(受众、脚本、风格、角色、场景)
17
17
  4. 剧本润色 → 检查并修改剧本的角色,确保每个场景角色的外貌、妆造、衣着特征在 start_frame 中描述完整以保证一致性
18
18
  5. 素材生成(严格按顺序)
19
19
  1) 配音 `generate-scene-tts`
20
20
  2) 图片 `generate-image` + 视频 `generate-video`
21
21
  或 `generate-video-by-ref` 参考图生视频
22
22
  3) 背景音乐 `generate-music`
23
- 6. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
23
+ 6. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
24
24
  7. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
25
25
  8. 关闭项目 → `project-close`
26
26
 
27
27
  ### 修改
28
28
 
29
29
  1. 确保项目已启动 → `project-open`
30
- 2. 修改脚本 → 更新 story_board.json
30
+ 2. 修改脚本 → 更新 storyboard.json
31
31
  3. 更新素材 → 重新生成需要修改的素材
32
32
  4. 更新技术规范 → 更新 draft_content.json
33
33
  5. 执行渲染 → `compile-and-run` 自动下载成品
@@ -39,12 +39,12 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
39
39
 
40
40
  1. `project-open`
41
41
  2. 使用`search-voices`选择合适的配音音色
42
- 3. 创建 story_board.json
42
+ 3. 创建 storyboard.json
43
43
  - 在每个场景中指定选定的voice_id
44
- - 可反复修改 story_board.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
44
+ - 可反复修改 storyboard.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
45
45
  4. 严格按顺序为每个场景生成素材:
46
46
  此时根据每个场景不同的特点,有两种视频素材生成方式:
47
- * 方式一(story_board 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
47
+ * 方式一(storyboard 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
48
48
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
49
49
  2) `generate-image`生成首帧图片→`generate-video`生成视频
50
50
  * 视频生成回退策略:
@@ -53,14 +53,14 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
53
53
  - Ken Burns特效选择(回退时使用):
54
54
  - 6秒内:zoom类型(zoom_in, zoom_out)
55
55
  - 6秒以上:pan类型(pan_left, pan_right, pan_up, pan_down)
56
- * 方式二(story_board 的当前 scene 设置 video_type: references):
56
+ * 方式二(storyboard 的当前 scene 设置 video_type: references):
57
57
  1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
58
58
  2) `generate-video-by-ref`参考图生视频
59
59
  5. `generate-music`生成背景音乐
60
60
  6. 创建`draft_content.json`:
61
61
  - ⚠️ 必须包含完整的VideoProject结构
62
62
  - 除非用户明确拒绝,否则`draft_content.json`中必须包含字幕:
63
- - 字幕文本严格一致性:字幕内容必须与 story_board.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
63
+ - 字幕文本严格一致性:字幕内容必须与 storyboard.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
64
64
  - 严格禁止:任何形式的简化、概括或改写,禁止擅自增加、删除或修改任何文字内容
65
65
  - 时间轴同步:字幕时间轴必须与对应的视频精确同步(无延迟,与视频时间轴对齐)
66
66
  7. `compile-and-run`渲染并自动下载成片
@@ -79,7 +79,7 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
79
79
  * 音色选择:使用`search-voices`筛选配音音色,匹配场景情感
80
80
  * 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
81
81
  * 时长控制:配音超16秒需简化台词或拆分场景
82
- - 如简化台词,请务必先修改 story_board.json 中的 script 或 dialog 字段,确保生成语音时的一致性
82
+ - 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
83
83
  * 视频生成策略:
84
84
  * 方式一:
85
85
  - 默认**优先使用**`generate-video`生成动态视频
@@ -103,7 +103,7 @@ description: 制作通用视频时,可以根据用户需求,按照这个流
103
103
  - 所有clip的startMs都基于视频时间轴计算
104
104
  * 检查字幕:
105
105
  - 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
106
- - 文本严格一致性:字幕内容**必须**与 story_board.json 中的 script 字段逐字对应
106
+ - 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
107
107
  - 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
108
108
  - 字幕显示时间不受转场滤镜影响,保持与音频同步
109
109
  * 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
@@ -14,11 +14,11 @@ description: 创作专业音乐MV,基于 Zerocut 自主完成音乐MV成片的
14
14
  3. 音乐创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
15
15
  4. 音乐生成 → 根据 lyrics.txt 调用 `generate-music` → 获得歌曲和 captions
16
16
  5. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
17
- 6. 设计分镜场景 → `get-storyboard-schema` 获取分镜场景规范 → 创建初始 story_board.json
17
+ 6. 设计分镜场景 → `get-schema` 获取分镜规范 → 创建初始 storyboard.json
18
18
  7. 主要角色形象塑造 → `generate-character-image` → 生成主要角色形象参考图(三视图)
19
19
  8. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
20
20
  9. 首尾帧视频生成 → `generate-video` → **可选择使用连续镜头方式**:根据创意需要,可以选择以下一场景的 start_frame 作为上一场景的 end_frame 来实现场景间连续性,或采用独立场景切换方式,每段视频的实际时长应匹配 timeline_analysis 中 proposed_video_scenes 对应场景的 video_duration_s
21
- 10. 技术规范 → 调用`get-video-project-schema`获取最新规范 → 根据规范创建 draft_content.json
21
+ 10. 技术规范 → 调用`get-schema`获取 draft_content 规范 → 根据规范创建 draft_content.json
22
22
  11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
23
23
  12. 关闭项目 → `project-close`
24
24
 
@@ -145,7 +145,7 @@ description: 创作专业音乐MV,基于 Zerocut 自主完成音乐MV成片的
145
145
  - 通过 timeline_analysis 中的 proposed_video_scenes 中的 script、video_start_s、video_duration_s 内容,生成对应的字幕
146
146
  - ‼️ 字幕必须生成,且符合核心设定的字幕规范
147
147
 
148
- ### story_board 规范
148
+ ### storyboard 规范
149
149
 
150
150
  - 场景连续性设计:
151
151
  - 连续镜头模式:如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧连续方式,用下一个场景的 start_frame 作为当前场景的 end_frame