cerevox 3.12.0 → 3.13.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/dist/mcp/servers/prompts/rules/material-creation.md +9 -8
- package/dist/mcp/servers/prompts/skills//344/270/200/351/224/256/346/210/220/347/211/207.md +100 -0
- package/dist/mcp/servers/prompts/skills//345/210/206/351/225/234/345/270/210.md +68 -0
- package/dist/mcp/servers/prompts/zerocut-core.md +9 -11
- package/dist/mcp/servers/zerocut.d.ts.map +1 -1
- package/dist/mcp/servers/zerocut.js +33 -19
- package/dist/mcp/servers/zerocut.js.map +1 -1
- package/package.json +1 -1
- package/dist/mcp/servers/prompts/skills/storyboard/art-style-references.md +0 -35
- package/dist/mcp/servers/prompts/skills/storyboard/storyboard-optimization-skill.md +0 -282
- package/dist/mcp/servers/prompts/skills/video/camera-movements.md +0 -29
- package/dist/mcp/servers/prompts/skills/video/continuity-techniques.md +0 -18
- package/dist/mcp/servers/prompts/skills/video/scene-composition-reference.md +0 -109
- package/dist/mcp/servers/prompts/skills/video/scene-composition-skill.md +0 -79
- package/dist/mcp/servers/prompts/skills/workflows/general-video.md +0 -187
- package/dist/mcp/servers/prompts/skills/workflows/music-video.md +0 -169
|
@@ -1,187 +0,0 @@
|
|
|
1
|
-
---
|
|
2
|
-
name: general-video
|
|
3
|
-
description: 制作通用视频时,可以根据用户需求,按照这个流程自动化成片
|
|
4
|
-
---
|
|
5
|
-
|
|
6
|
-
# 通用视频规则
|
|
7
|
-
|
|
8
|
-
你通过 Zerocut 根据用户需求合成通用视频
|
|
9
|
-
|
|
10
|
-
## 标准流水线
|
|
11
|
-
|
|
12
|
-
### 新建
|
|
13
|
-
|
|
14
|
-
1. 确保项目已正确开启:`project-open` 已被调用
|
|
15
|
-
2. 根据剧情设计选择语音 → 使用 `search-voices` 选择合适的配音音色,若用户指定了voice_id,则直接使用该音色ID,无需验证
|
|
16
|
-
3. 剧本规范 → 调用`get-schema(type: storyboard)`获取分镜规范 → 编写 storyboard.json(受众、脚本、风格、角色、场景)
|
|
17
|
-
4. 剧本润色 → 检查并修改剧本的角色,确保每个场景角色的外貌、妆造、衣着特征在 start_frame 中描述完整以保证一致性
|
|
18
|
-
5. 素材生成(严格按顺序)
|
|
19
|
-
1) 配音 `generate-scene-tts`
|
|
20
|
-
2) 图片 `generate-image` + 视频 `generate-video`
|
|
21
|
-
或 `generate-video-by-ref` 参考图生视频
|
|
22
|
-
3) 背景音乐 `generate-music-or-mv`
|
|
23
|
-
6. 技术规范 → 调用`get-schema(type: draft_content)`获取 draft_content 规范 → 根据规范创建 draft_content.json
|
|
24
|
-
7. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
|
|
25
|
-
8. 关闭项目 → `project-close`
|
|
26
|
-
|
|
27
|
-
### 修改
|
|
28
|
-
|
|
29
|
-
1. 确保项目已启动 → `project-open`
|
|
30
|
-
2. 修改脚本 → 更新 storyboard.json
|
|
31
|
-
3. 更新素材 → 重新生成需要修改的素材
|
|
32
|
-
4. 更新技术规范 → 更新 draft_content.json
|
|
33
|
-
5. 执行渲染 → `compile-and-run` 自动下载成品
|
|
34
|
-
6. 关闭项目 → `project-close`
|
|
35
|
-
|
|
36
|
-
---
|
|
37
|
-
|
|
38
|
-
## 详细工作流
|
|
39
|
-
|
|
40
|
-
1. `project-open`
|
|
41
|
-
2. 使用`search-voices`选择合适的配音音色
|
|
42
|
-
3. 创建 storyboard.json
|
|
43
|
-
- 在每个场景中指定选定的voice_id
|
|
44
|
-
- 可反复修改 storyboard.json 直至每个场景的 start_frame 都包含完整的该场景出现角色的信息,检查一致性
|
|
45
|
-
4. 严格按顺序为每个场景生成素材:
|
|
46
|
-
此时根据每个场景不同的特点,有两种视频素材生成方式:
|
|
47
|
-
* 方式一(storyboard 的当前 scene 设置 video_type: start_frame 或 start_end_frame):
|
|
48
|
-
1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
|
|
49
|
-
2) `generate-image`生成首帧图片→`generate-video`生成视频
|
|
50
|
-
* 视频生成回退策略:
|
|
51
|
-
- 优先使用`generate-video`生成动态视频
|
|
52
|
-
- 如用户指定选择kenburns方案,则优先使用 type: kenburns 生成视频,否则仅当`generate-video`多次失败时,才使用kenburns作为回退方案
|
|
53
|
-
- Ken Burns特效选择(回退时使用):
|
|
54
|
-
- 6秒内:zoom类型(zoom_in, zoom_out)
|
|
55
|
-
- 6秒以上:pan类型(pan_left, pan_right, pan_up, pan_down)
|
|
56
|
-
* 方式二(storyboard 的当前 scene 设置 video_type: references):
|
|
57
|
-
1) `generate-scene-tts`生成配音(确定时长:接口返回数据中durationMs为配音时长)
|
|
58
|
-
2) `generate-video-by-ref`参考图生视频
|
|
59
|
-
5. `generate-music-or-mv`生成背景音乐
|
|
60
|
-
6. 创建`draft_content.json`:
|
|
61
|
-
- ⚠️ 必须包含完整的VideoProject结构
|
|
62
|
-
- 除非用户明确拒绝,否则`draft_content.json`中必须包含字幕:
|
|
63
|
-
- 字幕文本严格一致性:字幕内容必须与 storyboard.json 中每个场景的 script 字段**逐字逐句完全相同**,包括标点符号、语气词、诗意表达
|
|
64
|
-
- 严格禁止:任何形式的简化、概括或改写,禁止擅自增加、删除或修改任何文字内容
|
|
65
|
-
- 时间轴同步:字幕时间轴必须与对应的视频精确同步(无延迟,与视频时间轴对齐)
|
|
66
|
-
7. `compile-and-run`渲染并自动下载成片
|
|
67
|
-
8. `project-close`
|
|
68
|
-
|
|
69
|
-
## 角色参考图
|
|
70
|
-
* 当 `stage_atmosphere.characters` 中设置 `apply_reference_image: true` 时,生成场景图片应使用对应的角色参考图,确保角色形象一致性,否则应不传
|
|
71
|
-
|
|
72
|
-
---
|
|
73
|
-
|
|
74
|
-
## 质量建议
|
|
75
|
-
|
|
76
|
-
### 工作流管理
|
|
77
|
-
* 规划先行:先分析制定执行计划
|
|
78
|
-
* 工作流顺序:规划→搜索→配音→图片→视频→BGM→字幕→渲染下载
|
|
79
|
-
* 音色选择:使用`search-voices`筛选配音音色,匹配场景情感
|
|
80
|
-
* 配音优先:先生成配音确定时长,再生成视频(视频时长=ceil(配音秒数),3-16秒)
|
|
81
|
-
* 时长控制:配音超16秒需简化台词或拆分场景
|
|
82
|
-
- 如简化台词,请务必先修改 storyboard.json 中的 script 或 dialog 字段,确保生成语音时的一致性
|
|
83
|
-
* 视频生成策略:
|
|
84
|
-
* 方式一:
|
|
85
|
-
- 默认**优先使用**`generate-video`生成动态视频
|
|
86
|
-
* 方式二:
|
|
87
|
-
- 仅使用`generate-video-by-ref`参考图生视频,用户明确指定使用参考图生视频时,才使用该方案
|
|
88
|
-
* 方式三:
|
|
89
|
-
- 回退方案,除非用户指定必须使用kenburns方案,否则仅在`generate-video`或`generate-video-by-ref`多次失败时使用kenburns模型作为回退方案
|
|
90
|
-
* 时间轴计算规则:
|
|
91
|
-
- 视频时长为整秒:clip的durationMs必须是1000的倍数
|
|
92
|
-
- 时间轴以视频为准:基于整秒计算,而非配音精确毫秒数
|
|
93
|
-
- 配音时长用于确定视频时长:配音7008ms→视频8000ms
|
|
94
|
-
- 转场滤镜独立性:转场效果不影响音视频时间轴对齐,音频和字幕保持原始时间同步
|
|
95
|
-
* 音频修改后的时间同步:
|
|
96
|
-
- 重要:用户修改声音后,如新音频时长发生变化,视频必须重新与声音时间同步
|
|
97
|
-
- 重新计算视频时长:新配音时长→向上取整到秒→更新视频durationMs
|
|
98
|
-
- 同步更新draft_content.json中所有相关的时间轴参数
|
|
99
|
-
* draft_content.json时间轴原则:
|
|
100
|
-
- 核心原则:tracks时间轴一律以视频为准
|
|
101
|
-
- 音频track必须对齐视频时间轴,不能以音频原始时长为准
|
|
102
|
-
- 字幕track必须对齐视频时间轴,确保显示时长与视频(而非语音)同步
|
|
103
|
-
- 所有clip的startMs都基于视频时间轴计算
|
|
104
|
-
* 检查字幕:
|
|
105
|
-
- 除非用户明确指定不要字幕,否则 draft_content.json 中必须包含字幕(subtitles 数组)
|
|
106
|
-
- 文本严格一致性:字幕内容**必须**与 storyboard.json 中的 script 字段逐字对应
|
|
107
|
-
- 字幕时间轴与 TTS 配音精确同步,与视频时间轴对齐(整秒)
|
|
108
|
-
- 字幕显示时间不受转场滤镜影响,保持与音频同步
|
|
109
|
-
* 转场滤镜策略:除非用户明确要求,否则默认不使用转场滤镜,保持简洁的剪切过渡
|
|
110
|
-
* 统一命名:`scXX_*`、`main_bgm_*`、`*_vo.*`
|
|
111
|
-
* 时长控制:单镜头3-16s
|
|
112
|
-
|
|
113
|
-
### 图生视频技巧
|
|
114
|
-
* 运动导向:提示词=主体运动+背景变化+镜头运动
|
|
115
|
-
* 特征定位:突出主体特征(老人、戴墨镜的女人)便于识别
|
|
116
|
-
* 环境一致性:确保场景间环境元素一致
|
|
117
|
-
- 时间:保持时间段一致(白天、夜晚),避免无故突变
|
|
118
|
-
- 天气:保持天气状况一致(晴天、雨天)
|
|
119
|
-
- 地点:场景转换符合空间逻辑
|
|
120
|
-
- 光线:保持光源方向和强度一致
|
|
121
|
-
|
|
122
|
-
### BGM 音量控制
|
|
123
|
-
* 音量:默认BGM音量控制为-25db,通过设置BGM音轨的gain effect控制
|
|
124
|
-
|
|
125
|
-
```json
|
|
126
|
-
{
|
|
127
|
-
...
|
|
128
|
-
"effects": [{
|
|
129
|
-
"name": "gain",
|
|
130
|
-
"params": {
|
|
131
|
-
"db": -25
|
|
132
|
-
}
|
|
133
|
-
}]
|
|
134
|
-
}
|
|
135
|
-
```
|
|
136
|
-
|
|
137
|
-
---
|
|
138
|
-
|
|
139
|
-
## 规划与搜索规则
|
|
140
|
-
|
|
141
|
-
### 需求分析
|
|
142
|
-
- 理解核心需求:明确视频主题、目标受众、预期效果
|
|
143
|
-
- 确定视频类型:科普解说、产品介绍、故事叙述等
|
|
144
|
-
- 分析技术要求:视频时长、画幅比例、风格偏好
|
|
145
|
-
- 识别素材需求:需要的图片、视频、音频素材
|
|
146
|
-
|
|
147
|
-
### 搜索内容
|
|
148
|
-
- 特定领域知识、热点话题、视觉参考、事实验证
|
|
149
|
-
|
|
150
|
-
---
|
|
151
|
-
|
|
152
|
-
## 特性支持
|
|
153
|
-
|
|
154
|
-
### 转场滤镜
|
|
155
|
-
|
|
156
|
-
draft_content.json 支持转场滤镜,在`timeline.tracks[].clips[]`中配置`transitionIn`:
|
|
157
|
-
|
|
158
|
-
```json
|
|
159
|
-
{
|
|
160
|
-
"transitionIn": {
|
|
161
|
-
"name": "fade",
|
|
162
|
-
"durationMs": 1000
|
|
163
|
-
}
|
|
164
|
-
}
|
|
165
|
-
```
|
|
166
|
-
|
|
167
|
-
---
|
|
168
|
-
|
|
169
|
-
## 故障排查
|
|
170
|
-
|
|
171
|
-
1. 检查时间轴基准:
|
|
172
|
-
- 强制要求:draft_content.json 中所有 tracks 的时间轴必须严格根据各素材的 duration、durationMs 创建
|
|
173
|
-
- 视频对齐原则:所有时间轴都必须与视频时长对齐
|
|
174
|
-
- 检查字幕的startMs/endMs是否与视频时间轴对齐
|
|
175
|
-
- 素材时长依据:timeline 中的 clip 时长必须基于实际生成的素材文件的 duration/durationMs 属性
|
|
176
|
-
2. 检查音频修改后的同步:
|
|
177
|
-
- 如果用户修改了配音,确认视频时长是否已重新计算
|
|
178
|
-
- 验证新配音时长→视频时长的转换是否正确(向上取整到秒)
|
|
179
|
-
- 检查所有相关clip的durationMs是否已更新
|
|
180
|
-
3. 检查素材时长一致性:
|
|
181
|
-
- 对比assets中的durationMs与timeline中clip的durationMs
|
|
182
|
-
- 确认没有使用音频原始时长作为视频时长
|
|
183
|
-
- 验证字幕时间范围不超出视频总时长
|
|
184
|
-
4. 检查时间轴计算:
|
|
185
|
-
- 确认所有时间都是1000的倍数(整秒)
|
|
186
|
-
- 验证startMs + durationMs的计算正确性
|
|
187
|
-
- 检查是否有重叠或间隙的时间段
|
|
@@ -1,169 +0,0 @@
|
|
|
1
|
-
---
|
|
2
|
-
name: music-video
|
|
3
|
-
description: 创作专业音乐MV,基于 Zerocut 自主完成音乐MV成片的全流程。
|
|
4
|
-
---
|
|
5
|
-
|
|
6
|
-
# 音乐 MV
|
|
7
|
-
|
|
8
|
-
你是专业音乐MV创作 Agent,基于 Zerocut 自主完成音乐MV成片的全流程。
|
|
9
|
-
|
|
10
|
-
# 标准流水线
|
|
11
|
-
|
|
12
|
-
1. 确保项目已启动 → `project-open`
|
|
13
|
-
2. 资料收集(可选)→ 使用搜索工具收集相关资料
|
|
14
|
-
3. 音乐创作 → 根据主题构思音乐氛围 → 创作歌词 lyrics.txt
|
|
15
|
-
4. 音乐生成 → 根据 lyrics.txt 调用 `generate-music-or-mv` → 获得歌曲和 captions
|
|
16
|
-
5. 分析歌曲 → 创建 timeline_analysis.json 得到 captions 的时间线
|
|
17
|
-
6. 设计分镜场景 → `get-schema(type: storyboard)` 获取分镜规范 → 创建初始 storyboard.json
|
|
18
|
-
7. 主要角色形象塑造 → `generate-character-image` → 生成主要角色形象参考图(三视图)
|
|
19
|
-
8. 分镜首帧生成 → `generate-image` → 生成各场景分镜首帧
|
|
20
|
-
9. 首尾帧视频生成 → `generate-video` → **可选择使用连续镜头方式**:根据创意需要,可以选择以下一场景的 start_frame 作为上一场景的 end_frame 来实现场景间连续性,或采用独立场景切换方式,每段视频的实际时长应匹配 timeline_analysis 中 proposed_video_scenes 对应场景的 video_duration_s
|
|
21
|
-
10. 技术规范 → 调用`get-schema(type: draft_content)`获取 draft_content 规范 → 根据规范创建 draft_content.json
|
|
22
|
-
11. 执行渲染 → `compile-and-run` 输出成品并自动下载到本地
|
|
23
|
-
12. 关闭项目 → `project-close`
|
|
24
|
-
|
|
25
|
-
## 重要规范
|
|
26
|
-
|
|
27
|
-
- 曲目长度在 60秒 ~ 120秒之间,不要低于 60 秒,也不要高于 120 秒
|
|
28
|
-
- 完整歌词通常包括以下桥段:
|
|
29
|
-
- 前奏: intro,歌曲开始的音乐部分,主要用于引导歌曲的整体氛围。
|
|
30
|
-
- 主歌: verse,通常在前奏之后,歌曲中叙述歌曲故事或主题的部分。
|
|
31
|
-
- 副歌: chorus,一般在主歌之后,旋律有记忆点和感染力,是整首歌的高潮,进一步强化歌曲的主题和情感。
|
|
32
|
-
- 间奏: inst,歌曲中的纯音乐段落,用于连接不同的演唱部分。
|
|
33
|
-
- 尾奏: outro,歌曲结束后的音乐段落,用于营造歌曲结束的氛围。
|
|
34
|
-
- 桥段: bridge,通常出现在歌曲中段或接近结尾处,是一个过渡部分,用于连接不同的歌曲段落。
|
|
35
|
-
|
|
36
|
-
### 歌词示例 lyrics.txt
|
|
37
|
-
|
|
38
|
-
```txt
|
|
39
|
-
[intro]
|
|
40
|
-
[verse]
|
|
41
|
-
记得那一天 那一天我们相恋
|
|
42
|
-
说好彼此都不说再见
|
|
43
|
-
遵守诺言 用心去相恋
|
|
44
|
-
我为你撑伞 你为我取暖
|
|
45
|
-
[inst]
|
|
46
|
-
[chorus]
|
|
47
|
-
当我把心交给你的那一天
|
|
48
|
-
你却消失在我的眼前
|
|
49
|
-
事到如今已经过了好多年
|
|
50
|
-
是否你还像从前
|
|
51
|
-
[outro]
|
|
52
|
-
```
|
|
53
|
-
|
|
54
|
-
- timeline_analysis.json 必须用代码创建,不要自行手工创建,以免出现数据不一致问题。
|
|
55
|
-
- timeline_analysis.json 中 captions 时间线包含旋律与歌词,proposed_video_scenes 必须从0ms开始,每个场景控制在3-16秒
|
|
56
|
-
- **连续镜头设计选择**:
|
|
57
|
-
- 可根据创意需要选择是否使用连续镜头
|
|
58
|
-
- 连续镜头:后一个场景的 start_frame 作为前一个场景的 end_frame,实现无缝衔接
|
|
59
|
-
- 独立场景:每个场景独立生成,通过剪辑实现场景切换
|
|
60
|
-
- 混合使用:部分场景使用连续镜头,部分场景独立切换
|
|
61
|
-
- 角色位置、姿态、服装、背景环境在连续场景中必须保持连续性
|
|
62
|
-
|
|
63
|
-
### timeline_analysis.json 示例
|
|
64
|
-
|
|
65
|
-
```json
|
|
66
|
-
{
|
|
67
|
-
"analysis": {
|
|
68
|
-
"total_duration_ms": 89900,
|
|
69
|
-
"total_duration_s": 90,
|
|
70
|
-
"video_length_constraint": "3-16秒每个场景",
|
|
71
|
-
"timing_precision": "视频必须整秒,歌词精度毫秒,误差控制1秒内"
|
|
72
|
-
},
|
|
73
|
-
"original_captions_timeline": [
|
|
74
|
-
{
|
|
75
|
-
"section": "intro",
|
|
76
|
-
"start_ms": 2133,
|
|
77
|
-
"end_ms": 5026,
|
|
78
|
-
"duration_ms": 2893,
|
|
79
|
-
"text": "[intro]"
|
|
80
|
-
},
|
|
81
|
-
{
|
|
82
|
-
"section": "verse_marker",
|
|
83
|
-
"start_ms": 8093,
|
|
84
|
-
"end_ms": 14092,
|
|
85
|
-
"duration_ms": 5999,
|
|
86
|
-
"text": "[verse]"
|
|
87
|
-
},
|
|
88
|
-
{
|
|
89
|
-
"section": "verse1",
|
|
90
|
-
"start_ms": 14093,
|
|
91
|
-
"end_ms": 18252,
|
|
92
|
-
"duration_ms": 4159,
|
|
93
|
-
"text": "水悠悠岁月流"
|
|
94
|
-
},
|
|
95
|
-
...
|
|
96
|
-
],
|
|
97
|
-
"proposed_video_scenes": [
|
|
98
|
-
{
|
|
99
|
-
"scene_id": "scene_01",
|
|
100
|
-
"video_start_s": 0,
|
|
101
|
-
"video_duration_s": 8,
|
|
102
|
-
"covers_audio_ms": "0-8000",
|
|
103
|
-
"description": "前奏第一部分 - 静立开场",
|
|
104
|
-
"script": "[intro]",
|
|
105
|
-
"note": "覆盖intro(2133-5026)和verse_marker前半部分"
|
|
106
|
-
},
|
|
107
|
-
{
|
|
108
|
-
"scene_id": "scene_02",
|
|
109
|
-
"video_start_s": 8,
|
|
110
|
-
"video_duration_s": 6,
|
|
111
|
-
"covers_audio_ms": "8000-14000",
|
|
112
|
-
"description": "前奏第二部分 - 准备动作",
|
|
113
|
-
"script": "[verse]",
|
|
114
|
-
"note": "覆盖verse_marker后半部分,为第一句歌词做准备"
|
|
115
|
-
},
|
|
116
|
-
{
|
|
117
|
-
"scene_id": "scene_03",
|
|
118
|
-
"video_start_s": 14,
|
|
119
|
-
"video_duration_s": 4,
|
|
120
|
-
"covers_audio_ms": "14000-18000",
|
|
121
|
-
"description": "水悠悠岁月流",
|
|
122
|
-
"script": "水悠悠岁月流",
|
|
123
|
-
"audio_timing": "14093-18252ms",
|
|
124
|
-
"timing_error": "93ms延迟开始,248ms提前结束,总误差341ms"
|
|
125
|
-
},
|
|
126
|
-
...
|
|
127
|
-
]
|
|
128
|
-
},
|
|
129
|
-
```
|
|
130
|
-
|
|
131
|
-
- 画面规范
|
|
132
|
-
|
|
133
|
-
1. 优先采用 lite 模型生成视频,视频分辨率默认为 720p
|
|
134
|
-
2. 镜头连续性可根据创意需要灵活选择:
|
|
135
|
-
- 连续镜头:使用下一个场景的 start_frame 图片作为当前场景的 end_frame 图片
|
|
136
|
-
- 独立场景:每个场景独立生成,不使用 end_frame 参数
|
|
137
|
-
|
|
138
|
-
- 合成规范
|
|
139
|
-
|
|
140
|
-
1. 场景视频时间轴必须与 timeline_analysis 中 proposed_video_scenes 里的各场景 video_duration_s 完全匹配
|
|
141
|
-
2. 要包括歌曲字幕,注意字幕时间轴必须对齐正确,你可以根据 timeline_analysis.json 匹配和校正字幕
|
|
142
|
-
|
|
143
|
-
### 歌曲字幕合成方法
|
|
144
|
-
|
|
145
|
-
- 通过 timeline_analysis 中的 proposed_video_scenes 中的 script、video_start_s、video_duration_s 内容,生成对应的字幕
|
|
146
|
-
- ‼️ 字幕必须生成,且符合核心设定的字幕规范
|
|
147
|
-
|
|
148
|
-
### storyboard 规范
|
|
149
|
-
|
|
150
|
-
- 场景连续性设计:
|
|
151
|
-
- 连续镜头模式:如无特别指定,每个场景中不需要包含 end_frame,而是在生成视频时采用首尾帧连续方式,用下一个场景的 start_frame 作为当前场景的 end_frame
|
|
152
|
-
- 独立场景模式:每个场景独立生成,不使用 end_frame 参数,通过剪辑实现场景切换
|
|
153
|
-
- 可根据创意需要混合使用两种模式
|
|
154
|
-
|
|
155
|
-
### 字幕字体规范
|
|
156
|
-
|
|
157
|
-
- `[intro]`、`[verse]` 等内容不需要字幕
|
|
158
|
-
|
|
159
|
-
---
|
|
160
|
-
|
|
161
|
-
# 质量建议
|
|
162
|
-
|
|
163
|
-
## 优化效率
|
|
164
|
-
|
|
165
|
-
- 为了提高速度,建议在 timeline_analysis 阶段根据歌词合并相邻的场景,保证每个视频场景的长度大概在 6-10 秒之间,以减少场景数量,避免产生过多的场景
|
|
166
|
-
- 比如:场景1 一共4秒,场景2 一共5秒,他们的歌词是连贯的,那么可以合并为一个场景,时长为9秒
|
|
167
|
-
|
|
168
|
-
- 对于超过 16秒 时长的场景,建议在 timeline_analysis 阶段进行拆分,以确保每个视频场景的长度在 3-16 秒之间
|
|
169
|
-
- 比如:场景7 一共19秒,可将它拆分成场景8和场景9,两个场景可以分别是3-16秒之内的时长,加起来一共19秒
|