create-ai-project 1.20.0 → 1.20.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (35) hide show
  1. package/.claude/agents-en/codebase-analyzer.md +2 -2
  2. package/.claude/agents-en/document-reviewer.md +12 -4
  3. package/.claude/agents-en/solver.md +1 -1
  4. package/.claude/agents-en/task-decomposer.md +16 -0
  5. package/.claude/agents-en/technical-designer-frontend.md +11 -2
  6. package/.claude/agents-en/technical-designer.md +11 -2
  7. package/.claude/agents-en/ui-spec-designer.md +1 -1
  8. package/.claude/agents-en/verifier.md +1 -1
  9. package/.claude/agents-en/work-planner.md +12 -5
  10. package/.claude/agents-ja/document-reviewer.md +12 -4
  11. package/.claude/agents-ja/solver.md +1 -1
  12. package/.claude/agents-ja/task-decomposer.md +17 -1
  13. package/.claude/agents-ja/task-executor.md +1 -1
  14. package/.claude/agents-ja/technical-designer-frontend.md +11 -2
  15. package/.claude/agents-ja/technical-designer.md +12 -3
  16. package/.claude/agents-ja/ui-spec-designer.md +1 -1
  17. package/.claude/agents-ja/verifier.md +1 -1
  18. package/.claude/agents-ja/work-planner.md +14 -7
  19. package/.claude/commands-en/update-doc.md +4 -4
  20. package/.claude/commands-ja/update-doc.md +4 -4
  21. package/.claude/skills-en/documentation-criteria/SKILL.md +21 -4
  22. package/.claude/skills-en/documentation-criteria/references/design-template.md +20 -0
  23. package/.claude/skills-en/documentation-criteria/references/plan-template.md +68 -17
  24. package/.claude/skills-en/documentation-criteria/references/task-template.md +8 -1
  25. package/.claude/skills-en/subagents-orchestration-guide/SKILL.md +4 -0
  26. package/.claude/skills-en/task-analyzer/references/skills-index.yaml +3 -2
  27. package/.claude/skills-ja/documentation-criteria/SKILL.md +24 -1
  28. package/.claude/skills-ja/documentation-criteria/references/design-template.md +20 -0
  29. package/.claude/skills-ja/documentation-criteria/references/plan-template.md +68 -17
  30. package/.claude/skills-ja/documentation-criteria/references/task-template.md +8 -1
  31. package/.claude/skills-ja/implementation-approach/SKILL.md +1 -1
  32. package/.claude/skills-ja/subagents-orchestration-guide/SKILL.md +4 -0
  33. package/.claude/skills-ja/task-analyzer/references/skills-index.yaml +4 -3
  34. package/CHANGELOG.md +19 -0
  35. package/package.json +1 -1
@@ -13,7 +13,7 @@ You are an AI assistant specializing in existing codebase analysis for technical
13
13
 
14
14
  ## Input Parameters
15
15
 
16
- - **requirement_analysis**: JSON output from requirement-analyzer (required)
16
+ - **requirement_analysis**: Requirement analysis JSON output (required)
17
17
  - Provides: `affectedFiles`, `scale`, `purpose`, `technicalConsiderations`
18
18
 
19
19
  - **prd_path**: Path to PRD (optional, available for Large scale)
@@ -156,7 +156,7 @@ Return the JSON result as the final response. See Output Format for the schema.
156
156
 
157
157
  ## Completion Criteria
158
158
 
159
- - [ ] Parsed requirement-analyzer output and identified analysis categories
159
+ - [ ] Parsed requirement analysis output and identified analysis categories
160
160
  - [ ] Read all affected files and extracted public interfaces with file:line references
161
161
  - [ ] Traced one level of imports for each affected file
162
162
  - [ ] Searched for data access, external integration, and validation patterns using Grep
@@ -38,7 +38,7 @@ Operates in an independent context without CLAUDE.md principles, executing auton
38
38
  - **doc_type**: Document type (`PRD`/`ADR`/`UISpec`/`DesignDoc`)
39
39
  - **target**: Document path to review
40
40
 
41
- - **code_verification**: Code-verifier results JSON (optional)
41
+ - **code_verification**: Code verification results JSON (optional)
42
42
  - When provided, incorporate as pre-verified evidence in Gate 1 quality assessment
43
43
  - Discrepancies and reverse coverage gaps inform consistency and completeness checks
44
44
 
@@ -83,6 +83,7 @@ For DesignDoc, additionally verify:
83
83
  - [ ] Code inspection evidence recorded (files and functions listed)
84
84
  - [ ] Applicable standards listed with explicit/implicit classification
85
85
  - [ ] Field propagation map present (when fields cross boundaries)
86
+ - [ ] Verification Strategy section present with: correctness definition, verification method, verification timing, early verification point
86
87
 
87
88
  #### Gate 1: Quality Assessment (only after Gate 0 passes)
88
89
 
@@ -99,7 +100,12 @@ For DesignDoc, additionally verify:
99
100
  - Dependency realizability check: For each dependency the Design Doc's Existing Codebase Analysis section describes as "existing", verify its definition exists in the codebase using Grep/Glob. Not found in codebase and no authoritative external source documented → `critical` issue (category: `feasibility`). Found but definition signature (method names, parameter types, return types) diverges from Design Doc description → `important` issue (category: `consistency`)
100
101
  - **As-is implementation document review**: When code verification results are provided and the document describes existing implementation (not future requirements), verify that code-observable behaviors are stated as facts; speculative language about deterministic behavior → `important` issue
101
102
  - **Data design completeness check**: When document contains data-storage keywords (database, persistence, storage, migration) or data-access keywords (repository, query, ORM, SQL) or data-schema keywords (table, schema, column) but lacks data design content (no schema references, no "Test Boundaries" section with data layer strategy, no data model documentation) → `important` issue (category: `completeness`). Note: generic terms like "model", "field", "record", "entity" alone are insufficient to trigger this check — require co-occurrence with at least one data-storage or data-access keyword
102
- - **Code-verifier integration**: When `code_verification` input is provided, each item in `undocumentedDataOperations` absent from the document → `important` issue (category: `completeness`). Each discrepancy from code-verifier with severity `critical` or `major` → incorporate as pre-verified evidence in the corresponding review check
103
+ - **Code verification integration**: When `code_verification` input is provided, each item in `undocumentedDataOperations` absent from the document → `important` issue (category: `completeness`). Each discrepancy from code verification with severity `critical` or `major` → incorporate as pre-verified evidence in the corresponding review check
104
+ - **Verification Strategy quality check** (when Verification Strategy section exists):
105
+ - Correctness definition is specific and measurable — "tests pass" without specifying which tests or what they verify → `important` issue (category: `completeness`)
106
+ - Verification method is sufficient for the change's risk and dependency type — method that cannot detect the primary risk category (e.g., schema correctness, behavioral equivalence, integration compatibility) → `important` issue (category: `consistency`)
107
+ - Early verification point identifies a concrete first target — "TBD" or "final phase" → `important` issue (category: `completeness`)
108
+ - When vertical slice is selected, verification timing deferred entirely to final phase → `important` issue (category: `consistency`)
103
109
 
104
110
  **Perspective-specific Mode**:
105
111
  - Implement review based on specified mode and focus
@@ -254,7 +260,9 @@ Include in output when `prior_context_count > 0`:
254
260
  - [ ] Dependencies described as "existing" verified against codebase (Grep/Glob)
255
261
  - [ ] Field propagation map present when fields cross component boundaries
256
262
  - [ ] Data-related keywords present → data design content exists (schema references, Test Boundaries, or data model documentation; or explicitly marked N/A)
257
- - [ ] Code-verifier results (if provided) reconciled with document content
263
+ - [ ] Code verification results (if provided) reconciled with document content
264
+ - [ ] Verification Strategy present with concrete correctness definition and early verification point
265
+ - [ ] Verification Strategy aligns with design_type and implementation approach
258
266
 
259
267
  ## Review Criteria (for Comprehensive Mode)
260
268
 
@@ -320,7 +328,7 @@ Template storage locations follow documentation-criteria skill.
320
328
  ## Important Notes
321
329
 
322
330
  ### Regarding ADR Status Updates
323
- **Important**: document-reviewer only performs review and recommendation decisions. Actual status updates are made after the user's final decision.
331
+ **Important**: This agent only performs review and recommendation decisions. Actual status updates are made after the user's final decision.
324
332
 
325
333
  **Presentation of Review Results**:
326
334
  - Present decisions such as "Approved (recommendation for approval)" or "Rejected (recommendation for rejection)"
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: solver
3
- description: Derives multiple solutions for verified causes and analyzes tradeoffs. Use when verifier has concluded, or when "solution/how to fix/fix method/remedy" is mentioned. Focuses on solutions from given conclusions without investigation.
3
+ description: Derives multiple solutions for verified causes and analyzes tradeoffs. Use when root cause verification has concluded, or when "solution/how to fix/fix method/remedy" is mentioned. Focuses on solutions from given conclusions without investigation.
4
4
  tools: Read, Grep, Glob, LS, TaskCreate, TaskUpdate, WebSearch
5
5
  skills: project-context, technical-spec, coding-standards, implementation-approach
6
6
  ---
@@ -30,6 +30,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
30
30
  - Understand dependencies between phases and tasks
31
31
  - Grasp completion criteria and quality standards
32
32
  - **Interface change detection and response**
33
+ - **Extract Verification Strategy from work plan header**
33
34
 
34
35
  2. **Task Decomposition**
35
36
  - Granularity: 1 commit = 1 task (logical change unit)
@@ -95,6 +96,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
95
96
  - Target files
96
97
  - **Investigation Targets** (what the executor must read and understand before implementing)
97
98
  - Concrete implementation steps
99
+ - **Operation Verification Methods** (derived from Verification Strategy in work plan)
98
100
  - Completion criteria
99
101
 
100
102
  6. **Investigation Targets Determination**
@@ -107,6 +109,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
107
109
  | Test implementation | Test skeleton comments/annotations, the target code being tested, actual API/auth flows |
108
110
  | E2E environment setup | Current environment config (startup scripts, docker-compose or equivalent), seed scripts, existing fixture patterns, application auth flow |
109
111
  | Bug fix / refactor | The affected code paths, related test coverage, error reproduction context |
112
+ | Behavior replacement / rewrite | The existing implementation being replaced, its observable outputs, Design Doc Verification Strategy section |
110
113
 
111
114
  **Principles**:
112
115
  - Every task must have at least one Investigation Target (even if just the Design Doc)
@@ -121,6 +124,19 @@ Decompose tasks based on implementation strategy patterns determined in implemen
121
124
  8. **Utilizing Test Information**
122
125
  When test information (fast-check usage, dependencies, complexity, etc.) is documented in work plans, reflect that information in task files.
123
126
 
127
+ ## Verification Strategy Propagation
128
+
129
+ Verification Strategy defines what correctness means and how to prove it at design time. L1/L2/L3 (from implementation-approach skill) define completion verification granularity at task execution time. Both are set per task.
130
+
131
+ When the work plan includes a Verification Strategy, derive each task's Operation Verification Methods as follows:
132
+
133
+ 1. **Early verification task**: The task whose scope matches the Verification Strategy's "First verification target" field. Copy and instantiate the verification method, success criteria, and failure response from Verification Strategy into Operation Verification Methods for this task's specific target files.
134
+ 2. **Per-task verification**: For each task, set Operation Verification Methods by combining:
135
+ - **Verification method**: Instantiate the Verification Strategy's method for this task's specific target files (e.g., "compare OrderService.calculate() output against existing implementation at src/legacy/order_calc", "run generated API handler against test database and verify response matches contract")
136
+ - **Success criteria**: Instantiate the Verification Strategy's success criteria for this task's scope (e.g., "output matches existing implementation for all input combinations")
137
+ - **Verification level**: Select L1/L2/L3 per implementation-approach skill
138
+ 3. **Investigation Targets**: Include resources needed for verification (e.g., existing implementation for comparison, schema definitions, seed data paths)
139
+
124
140
  ## Task File Template
125
141
 
126
142
  See task template in documentation-criteria skill for details.
@@ -116,6 +116,14 @@ Must be performed when creating Design Doc:
116
116
  - Which task first makes the entire UI operational
117
117
  - Verification level for each task (L1/L2/L3 defined in implementation-approach skill)
118
118
 
119
+ 3. **Verification Strategy Definition**
120
+ - Based on selected approach and design_type, define how correctness will be proven
121
+ - Output must include at least: target comparison (what vs what), method (how), observable success indicator
122
+ - For new_feature: specify AC verification method beyond unit tests (e.g., integration test against real dependencies)
123
+ - For extension: specify regression verification method that proves existing behavior is preserved while new behavior is added
124
+ - For refactoring: specify behavioral equivalence verification method (e.g., output comparison with existing implementation)
125
+ - Define early verification point: what is the first thing to verify, and how, to confirm the approach is correct before scaling
126
+
119
127
  ### Change Impact Map【Required】
120
128
  Must be included when creating Design Doc:
121
129
 
@@ -173,7 +181,7 @@ When a UI Spec exists for the feature (`docs/ui-spec/{feature-name}-ui-spec.md`)
173
181
  - `reverse-engineer`: Document existing frontend architecture as-is (see Reverse-Engineer Mode section)
174
182
 
175
183
  - **Requirements Analysis Results**: Requirements analysis results (scale determination, technical requirements, etc.)
176
- - **Codebase Analysis** (optional, from codebase-analyzer):
184
+ - **Codebase Analysis** (optional, from codebase analysis phase):
177
185
  - When provided, use as the primary source for the "Existing Codebase Analysis" section
178
186
  - `existingElements` → populate Implementation Path Mapping and Code Inspection Evidence
179
187
  - `dataModel` → populate data-related sections (schema references, data contracts)
@@ -326,11 +334,12 @@ class Button extends React.Component {
326
334
  - [ ] **Change impact map created** (required)
327
335
  - [ ] Response to requirements and design validity
328
336
  - [ ] Error handling strategy
329
- - [ ] Acceptance criteria written in testable format (concrete trigger, action, and expected result)
337
+ - [ ] Acceptance criteria written in testable format (user-observable behaviors, integration/E2E oriented, CI-isolatable)
330
338
  - [ ] Props change matrix completeness
331
339
  - [ ] Implementation approach selection rationale (vertical/horizontal/hybrid)
332
340
  - [ ] Latest best practices researched and references cited
333
341
  - [ ] **Complexity assessment**: complexity_level set; if medium/high, complexity_rationale specifies (1) requirements/ACs, (2) constraints/risks
342
+ - [ ] **Verification Strategy defined** (correctness definition, verification method, timing, early verification point)
334
343
 
335
344
  **Reverse-engineer mode only**:
336
345
  - [ ] Every architectural claim cites file:line as evidence
@@ -147,6 +147,14 @@ Must be performed when creating Design Doc:
147
147
  - Which task first makes the whole system operational
148
148
  - Verification level for each task (L1/L2/L3 defined in implementation-approach skill)
149
149
 
150
+ 3. **Verification Strategy Definition**
151
+ - Based on selected approach and design_type, define how correctness will be proven
152
+ - Output must include at least: target comparison (what vs what), method (how), observable success indicator
153
+ - For new_feature: specify AC verification method beyond unit tests (e.g., integration test against real dependencies)
154
+ - For extension: specify regression verification method that proves existing behavior is preserved while new behavior is added
155
+ - For refactoring: specify behavioral equivalence verification method (e.g., output comparison with existing implementation)
156
+ - Define early verification point: what is the first thing to verify, and how, to confirm the approach is correct before scaling
157
+
150
158
  ### Change Impact Map【Required】
151
159
  Must be included when creating Design Doc:
152
160
 
@@ -200,7 +208,7 @@ Document state definitions and transitions for stateful components.
200
208
  - `reverse-engineer`: Document existing architecture as-is (see Reverse-Engineer Mode section)
201
209
 
202
210
  - **Requirements Analysis Results**: Requirements analysis results (scale determination, technical requirements, etc.)
203
- - **Codebase Analysis** (optional, from codebase-analyzer):
211
+ - **Codebase Analysis** (optional, from codebase analysis phase):
204
212
  - When provided, use as the primary source for the "Existing Codebase Analysis" section
205
213
  - `existingElements` → populate Implementation Path Mapping and Code Inspection Evidence
206
214
  - `dataModel` → populate data-related sections (schema references, data contracts)
@@ -293,13 +301,14 @@ Implementation sample creation checklist:
293
301
  - [ ] **Change impact map created** (required)
294
302
  - [ ] Response to requirements and design validity
295
303
  - [ ] Error handling strategy
296
- - [ ] Acceptance criteria written in testable format (concrete trigger, action, and expected result)
304
+ - [ ] Acceptance criteria written in testable format (user-observable behaviors, integration/E2E oriented, CI-isolatable)
297
305
  - [ ] Interface change matrix completeness
298
306
  - [ ] Implementation approach selection rationale (vertical/horizontal/hybrid)
299
307
  - [ ] Latest best practices researched and references cited
300
308
  - [ ] **Complexity assessment**: complexity_level set; if medium/high, complexity_rationale specifies (1) requirements/ACs, (2) constraints/risks
301
309
  - [ ] **Data representation decision documented** (when new structures introduced)
302
310
  - [ ] **Field propagation map included** (when fields cross boundaries)
311
+ - [ ] **Verification Strategy defined** (correctness definition, verification method, timing, early verification point)
303
312
 
304
313
  **Reverse-engineer mode only**:
305
314
  - [ ] Every architectural claim cites file:line as evidence
@@ -26,7 +26,7 @@ Operates in an independent context without CLAUDE.md principles, executing auton
26
26
 
27
27
  ## Required Information
28
28
 
29
- - **PRD**: PRD document path (required if exists; otherwise requirement-analyzer output is used)
29
+ - **PRD**: PRD document path (required if exists; otherwise requirement analysis output is used)
30
30
  - **Prototype code path**: Path to prototype code (optional, placed in `docs/ui-spec/assets/{feature-name}/`)
31
31
  - **Existing frontend codebase**: Will be investigated automatically
32
32
 
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: verifier
3
- description: Critically evaluates investigation results and identifies oversights. Use when investigator completes investigation, or when "verify/really/confirm/oversight/other possibilities" is mentioned. Uses ACH and Devil's Advocate to verify validity and derive conclusions.
3
+ description: Critically evaluates investigation results and identifies oversights using ACH and Devil's Advocate methods. Use when investigation has completed, or when "verify/validate/double-check/confirm findings" is mentioned. Uses ACH and Devil's Advocate to verify validity and derive conclusions.
4
4
  tools: Read, Grep, Glob, LS, Bash, WebSearch, TaskCreate, TaskUpdate
5
5
  skills: project-context, technical-spec, coding-standards
6
6
  ---
@@ -26,6 +26,7 @@ Read the Design Doc(s), UI Spec, PRD, and ADR (if provided). Extract:
26
26
  - Acceptance criteria and implementation approach
27
27
  - Technical dependencies and implementation order
28
28
  - Integration points and their contracts
29
+ - **Verification Strategy**: Correctness Proof Method (correctness definition, verification method, verification timing) and Early Verification Point (first verification target, success criteria, failure response)
29
30
 
30
31
  ### 2. Process Test Design Information (when provided)
31
32
  Read test skeleton files and extract meta information (see Test Design Information Processing section).
@@ -34,11 +35,15 @@ Read test skeleton files and extract meta information (see Test Design Informati
34
35
  Choose Strategy A (TDD) if test skeletons are provided, Strategy B (implementation-first) otherwise. See Implementation Strategy Selection section.
35
36
 
36
37
  ### 4. Compose Phases
37
- Structure phases based on technical dependencies from Design Doc:
38
- - Place tasks with lowest dependencies in earlier phases
38
+
39
+ **Common rules (all approaches)**:
40
+ - **Include Verification Strategy summary in work plan header** for downstream task reference
41
+ - Include verification tasks in the phase corresponding to Verification Strategy's verification timing
39
42
  - When test skeletons are provided, place integration test implementation in corresponding phases and E2E test execution in the final phase
40
43
  - When test skeletons are not provided, include test implementation tasks based on Design Doc acceptance criteria
41
- - Include quality assurance in final phase
44
+ - Final phase is always Quality Assurance
45
+
46
+ **Phase structure**: Select based on implementation approach from Design Doc. See Phase Division Criteria in documentation-criteria skill for detailed definitions. Use plan-template Option A (Vertical) or Option B (Horizontal) accordingly. For hybrid, use Option A as the base and add horizontal foundation phases where needed.
42
47
 
43
48
  ### 5. Define Tasks with Completion Criteria
44
49
  For each task, derive completion criteria from Design Doc acceptance criteria. Apply the 3-element completion definition (Implementation Complete, Quality Complete, Integration Complete).
@@ -53,7 +58,7 @@ Write the work plan following the plan template from documentation-criteria skil
53
58
  - **uiSpec** (optional): Path to UI Specification (frontend/fullstack features)
54
59
  - **prd** (optional): Path to PRD document
55
60
  - **adr** (optional): Path to ADR document
56
- - **testSkeletons** (optional): Paths to integration/E2E test skeleton files from acceptance-test-generator
61
+ - **testSkeletons** (optional): Paths to integration/E2E test skeleton files (comment-based skeletons describing test intent, not implemented tests)
57
62
  - **updateContext** (update mode only): Path to existing plan, reason for changes
58
63
 
59
64
  ## Work Plan Output Format
@@ -216,7 +221,9 @@ When creating work plans, **Phase Structure Diagrams** and **Task Dependency Dia
216
221
  ## Quality Checklist
217
222
 
218
223
  - [ ] Design Doc(s) consistency verification
219
- - [ ] Phase composition based on technical dependencies
224
+ - [ ] Verification Strategy extracted from Design Doc and included in plan header
225
+ - [ ] Phase structure matches implementation approach (vertical → value unit phases, horizontal → layer phases)
226
+ - [ ] Early verification point placed in Phase 1 (when Verification Strategy specifies one)
220
227
  - [ ] All requirements converted to tasks
221
228
  - [ ] Quality assurance exists in final phase
222
229
  - [ ] Test skeleton file paths listed in corresponding phases (when provided)
@@ -38,7 +38,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
38
38
  - **doc_type**: ドキュメントタイプ(`PRD`/`UISpec`/`ADR`/`DesignDoc`)
39
39
  - **target**: レビュー対象のドキュメントパス
40
40
 
41
- - **code_verification**: code-verifier結果JSON(任意)
41
+ - **code_verification**: コード検証結果のJSON(任意)
42
42
  - 提供された場合、Gate 1品質評価の事前検証エビデンスとして組み込む
43
43
  - 不整合と逆方向カバレッジのギャップが整合性・完全性チェックに反映される
44
44
 
@@ -83,6 +83,7 @@ DesignDocの場合、追加で以下を確認:
83
83
  - [ ] コード調査エビデンスの記録(ファイルと関数の一覧)
84
84
  - [ ] 適用基準のexplicit/implicit分類付き一覧
85
85
  - [ ] フィールド伝播マップの存在(フィールドが境界を越える場合)
86
+ - [ ] 検証戦略セクションの存在(正しさの定義、検証手法、検証タイミング、早期検証ポイント)
86
87
 
87
88
  #### Gate 1: 品質評価(Gate 0通過後のみ実施)
88
89
 
@@ -99,7 +100,12 @@ DesignDocの場合、追加で以下を確認:
99
100
  - 依存先の実在性検証:Design Docの「既存コードベース分析」セクションが「既存」と記述する依存先について、Grep/Globでコードベース内の定義を確認。コードベースに見つからず公式の外部出典の記載もない → `critical`(カテゴリ: `feasibility`)。存在するが定義のシグネチャ(メソッド名、パラメータ型、戻り値型)がDesign Docの記述と乖離 → `important`(カテゴリ: `consistency`)
100
101
  - **既存実装ドキュメント検証**: コード検証結果が提供され、ドキュメントが既存実装を記述している場合(将来の要件ではなく)、コードから観察可能な振る舞いが事実として記述されていることを検証する。確定的な振る舞いに対する推測的な表現 → `important`
101
102
  - **データ設計完全性チェック**: ドキュメントにデータ格納キーワード(database, persistence, storage, migration)またはデータアクセスキーワード(repository, query, ORM, SQL)またはデータスキーマキーワード(table, schema, column)が含まれるにもかかわらず、データ設計コンテンツが不足している場合(スキーマ参照なし、データ層戦略を含む「テスト境界」セクションなし、データモデル文書なし) → `important`(カテゴリ: `completeness`)。注: 「model」「field」「record」「entity」等の汎用語のみでは本チェックを発火しない — データ格納またはデータアクセスキーワードとの共起が必要
102
- - **code-verifier連携**: `code_verification`入力が提供された場合、`undocumentedDataOperations`の各項目がドキュメントに不在 → `important`(カテゴリ: `completeness`)。code-verifierのseverityが`critical`または`major`の不整合 → 対応するレビューチェックの事前検証エビデンスとして組み込む
103
+ - **コード検証連携**: `code_verification`入力が提供された場合、`undocumentedDataOperations`の各項目がドキュメントに不在 → `important`(カテゴリ: `completeness`)。コード検証のseverityが`critical`または`major`の不整合 → 対応するレビューチェックの事前検証エビデンスとして組み込む
104
+ - **検証戦略の品質チェック**(検証戦略セクションが存在する場合):
105
+ - 正しさの定義が具体的かつ測定可能であること — どのテストで何を確認するかを特定せず「テストがパス」とだけ記述 → `important`(カテゴリ: `completeness`)
106
+ - 検証手法が変更のリスクと依存タイプに対して十分であること — 主要なリスクカテゴリ(スキーマの正しさ、振る舞いの同等性、統合互換性等)を検出できない手法 → `important`(カテゴリ: `consistency`)
107
+ - 早期検証ポイントが具体的な最初の対象を特定していること — 「TBD」や「最終フェーズ」→ `important`(カテゴリ: `completeness`)
108
+ - 垂直スライス選択時に、検証タイミングが最終フェーズのみに後回し → `important`(カテゴリ: `consistency`)
103
109
 
104
110
  **観点特化モード**:
105
111
  - 指定されたmodeとfocusに基づいてレビューを実施
@@ -254,7 +260,9 @@ DesignDocの場合、追加で以下を確認:
254
260
  - [ ] 「既存」と記述された依存先がコードベースに対して検証されていること(Grep/Glob)
255
261
  - [ ] フィールドが境界を越える場合にフィールド伝播マップが存在すること
256
262
  - [ ] データ関連キーワードが存在する場合 → データ設計コンテンツが存在(スキーマ参照、テスト境界、データモデル文書。または明示的にN/A)
257
- - [ ] code-verifier結果(提供された場合)がドキュメント内容と照合済み
263
+ - [ ] コード検証結果(提供された場合)がドキュメント内容と照合済み
264
+ - [ ] 検証戦略に具体的な正しさの定義と早期検証ポイントが存在すること
265
+ - [ ] 検証戦略がdesign_typeと実装アプローチに整合していること
258
266
 
259
267
  ## レビュー基準(総合モード用)
260
268
 
@@ -320,7 +328,7 @@ DesignDocの場合、追加で以下を確認:
320
328
  ## 重要な注意事項
321
329
 
322
330
  ### ADRステータス更新について
323
- **重要**: document-reviewerはレビューと推奨判定のみを行います。実際のステータス更新はユーザーの最終判断後に行われます。
331
+ **重要**: このエージェントはレビューと推奨判定のみを行います。実際のステータス更新はユーザーの最終判断後に行われます。
324
332
 
325
333
  **レビュー結果の提示**:
326
334
  - 「Approved(承認推奨)」「Rejected(却下推奨)」等の判定を提示
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: solver
3
- description: 検証済み原因に対して複数の解決策を導出しトレードオフを分析。Use when verifierが結論を出した後、または「解決策/どうすれば/修正方法/対処法」が言及された時。調査は行わず与えられた結論から解決に集中。
3
+ description: 検証済み原因に対して複数の解決策を導出しトレードオフを分析。Use when 根本原因の検証が完了した後、または「解決策/どうすれば/修正方法/対処法」が言及された時。調査は行わず与えられた結論から解決に集中。
4
4
  tools: Read, Grep, Glob, LS, TaskCreate, TaskUpdate, WebSearch
5
5
  skills: project-context, technical-spec, coding-standards, implementation-approach
6
6
  ---
@@ -18,7 +18,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
18
18
  **各タスクは適切なレベルで確認可能でなければならない**
19
19
 
20
20
  ### 確認可能性の基準
21
- implementation-approachスキルで定義された確認レベル(L1/L2/L3)に基づいてタスクを設計。
21
+ implementation-approachスキルで定義された検証レベル(L1/L2/L3)に基づいてタスクを設計。
22
22
 
23
23
  ### 実装戦略の適用
24
24
  implementation-approachスキルで決定された実装戦略パターンに基づいてタスクを分解する。
@@ -30,6 +30,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
30
30
  - 各フェーズとタスクの依存関係を理解
31
31
  - 完了条件と品質基準を把握
32
32
  - **インターフェース変更の検出と対応**
33
+ - **作業計画書ヘッダーから検証戦略を抽出**
33
34
 
34
35
  2. **タスクの分解**
35
36
  - 粒度: 1コミット = 1タスク(論理的変更単位)
@@ -95,6 +96,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
95
96
  - 対象ファイル
96
97
  - **調査対象**(executorが実装前に読んで理解すべきもの)
97
98
  - 具体的な実装手順
99
+ - **動作検証方法**(作業計画書の検証戦略から導出)
98
100
  - 完了条件
99
101
 
100
102
  6. **調査対象の決定**
@@ -107,6 +109,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
107
109
  | テスト実装 | テストスケルトンのコメント/アノテーション、テスト対象コード、実際のAPI/認証フロー |
108
110
  | E2E環境セットアップ | 現在の環境設定(起動スクリプト、docker-compose等)、seed scripts、既存のfixtureパターン、アプリケーション認証フロー |
109
111
  | バグ修正 / リファクタリング | 影響を受けるコードパス、関連テストカバレッジ、エラー再現コンテキスト |
112
+ | 振る舞いの置換・リライト | 置換対象の既存実装、その観察可能な出力、Design Docの検証戦略セクション |
110
113
 
111
114
  **原則**:
112
115
  - 全タスクに最低1つの調査対象を設定する(Design Docのみでも可)
@@ -121,6 +124,19 @@ implementation-approachスキルで決定された実装戦略パターンに基
121
124
  8. **テスト情報の活用**
122
125
  作業計画書にテスト情報(fast-check使用、依存関係、複雑度等)が記載されている場合、その情報をタスクファイルに反映する。
123
126
 
127
+ ## 検証戦略の伝播
128
+
129
+ 検証戦略は設計時に「正しさとは何か」「どう証明するか」を定義する。L1/L2/L3(implementation-approachスキル)はタスク実行時の完了検証の粒度を定義する。両方をタスクごとに設定する。
130
+
131
+ 作業計画書に検証戦略が含まれる場合、各タスクの動作検証方法を以下のように導出する:
132
+
133
+ 1. **早期検証タスク**: 検証戦略の「最初の検証対象」フィールドとスコープが一致するタスク。検証戦略の検証手法、成功基準、失敗時の対応を転記し、このタスクの具体的な対象ファイルに即して具体化する。
134
+ 2. **タスクごとの検証**: 各タスクの動作検証方法を以下を組み合わせて設定:
135
+ - **検証手法**: 検証戦略の手法をこのタスクの対象ファイルに具体化(例: 「OrderService.calculate()の出力をsrc/legacy/order_calcの既存実装と比較」「生成したAPIハンドラをテストDBに対して実行しレスポンスがコントラクトに一致することを確認」)
136
+ - **成功基準**: 検証戦略の成功基準をこのタスクのスコープに具体化(例: 「全入力パターンで既存実装と出力が一致」)
137
+ - **検証レベル**: implementation-approachスキルに従いL1/L2/L3を選択
138
+ 3. **調査対象**: 検証に必要なリソースを含める(例: 比較対象の既存実装、スキーマ定義、seed dataのパス)
139
+
124
140
  ## タスクファイルテンプレート
125
141
 
126
142
  詳細はdocumentation-criteriaスキルのタスクテンプレートを参照。
@@ -149,7 +149,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
149
149
 
150
150
  #### 動作確認
151
151
  - タスク内の「動作確認方法」セクションを実行
152
- - implementation-approachスキルで定義された確認レベルに応じた確認を実施
152
+ - implementation-approachスキルで定義された検証レベルに応じた確認を実施
153
153
  - 確認できない場合は理由を記録
154
154
  - 結果を構造化レスポンスに含める
155
155
 
@@ -126,6 +126,14 @@ Design Doc作成時に必ず実施:
126
126
  - どのタスクで初めて全体のUIが動作するか
127
127
  - 各タスクの検証レベル(implementation-approachスキルで定義されたL1/L2/L3)
128
128
 
129
+ 3. **検証戦略の定義**
130
+ - 選択したアプローチとdesign_typeに基づき、正しさの証明方法を定義する
131
+ - 最低限含める項目: 比較対象(何と何を)、手法(どうやって)、観察可能な成功指標
132
+ - new_featureの場合: ユニットテスト以上のAC検証手法を明記(例: 実依存に対する統合テスト)
133
+ - extensionの場合: 既存の振る舞いが維持されつつ新しい振る舞いが追加されることを証明する回帰検証手法を明記
134
+ - refactoringの場合: 振る舞いの同等性を検証する手法を明記(例: 既存実装との出力比較)
135
+ - 早期検証ポイントを定義: アプローチの妥当性を本格展開前に確認するため、最初に何を、どうやって検証するか
136
+
129
137
  ### 変更影響マップ【必須】
130
138
  Design Doc作成時に必ず含める:
131
139
 
@@ -173,7 +181,7 @@ Design Doc作成前に実施:
173
181
  - `reverse-engineer`: 既存フロントエンドアーキテクチャの現状ドキュメント化(reverse-engineerモードセクション参照)
174
182
 
175
183
  - **要件分析結果**: 要件分析の結果(規模判定、技術要件等)
176
- - **コードベース分析**(任意、コードベース分析エージェントから提供):
184
+ - **コードベース分析**(任意、コードベース分析フェーズから提供):
177
185
  - 提供された場合、「既存コードベース分析」セクションの主要ソースとして使用
178
186
  - `existingElements` → Implementation Path MappingとCode Inspection Evidenceに反映
179
187
  - `dataModel` → データ関連セクション(スキーマ参照、データ契約)に反映
@@ -326,11 +334,12 @@ class Button extends React.Component {
326
334
  - [ ] **変更影響マップの作成**(必須)
327
335
  - [ ] 要件への対応と設計の妥当性
328
336
  - [ ] エラーハンドリング戦略
329
- - [ ] 受入条件がテスト可能な形式で記述されていること(具体的なトリガー、操作、期待結果)
337
+ - [ ] 受入条件がテスト可能な形式で記述されていること(ユーザーから観察可能な振る舞い、統合/E2E指向、CI隔離可能)
330
338
  - [ ] Props変更マトリクスの完成度
331
339
  - [ ] 実装アプローチ(垂直/水平/ハイブリッド)の選択根拠
332
340
  - [ ] 最新のベストプラクティスの調査と参考資料の記載
333
341
  - [ ] **複雑性評価**: complexity_levelを設定。medium/highの場合、complexity_rationaleに(1)要件/AC、(2)制約/リスクを明記
342
+ - [ ] **検証戦略の定義**(正しさの定義、検証手法、タイミング、早期検証ポイント)
334
343
 
335
344
  **reverse-engineerモード限定**:
336
345
  - [ ] すべてのアーキテクチャ主張がfile:lineをevidenceとして引用
@@ -145,7 +145,15 @@ Design Doc作成時に必ず実施:
145
145
 
146
146
  2. **統合ポイントの定義**
147
147
  - どのタスクで全体が初めて動作するか
148
- - 各タスクの確認レベル(implementation-approachスキルで定義されたL1/L2/L3)
148
+ - 各タスクの検証レベル(implementation-approachスキルで定義されたL1/L2/L3)
149
+
150
+ 3. **検証戦略の定義**
151
+ - 選択したアプローチとdesign_typeに基づき、正しさの証明方法を定義する
152
+ - 最低限含める項目: 比較対象(何と何を)、手法(どうやって)、観察可能な成功指標
153
+ - new_featureの場合: ユニットテスト以上のAC検証手法を明記(例: 実依存に対する統合テスト)
154
+ - extensionの場合: 既存の振る舞いが維持されつつ新しい振る舞いが追加されることを証明する回帰検証手法を明記
155
+ - refactoringの場合: 振る舞いの同等性を検証する手法を明記(例: 既存実装との出力比較)
156
+ - 早期検証ポイントを定義: アプローチの妥当性を本格展開前に確認するため、最初に何を、どうやって検証するか
149
157
 
150
158
  ### 変更影響マップ【必須】
151
159
  Design Doc作成時に必ず含める:
@@ -200,7 +208,7 @@ Design Doc作成前に実施:
200
208
  - `reverse-engineer`: 既存アーキテクチャの現状ドキュメント化(reverse-engineerモードセクション参照)
201
209
 
202
210
  - **要件分析結果**: 要件分析の結果(規模判定、技術要件等)
203
- - **コードベース分析**(任意、コードベース分析エージェントから提供):
211
+ - **コードベース分析**(任意、コードベース分析フェーズから提供):
204
212
  - 提供された場合、「既存コードベース分析」セクションの主要ソースとして使用
205
213
  - `existingElements` → Implementation Path MappingとCode Inspection Evidenceに反映
206
214
  - `dataModel` → データ関連セクション(スキーマ参照、データ契約)に反映
@@ -292,13 +300,14 @@ ADRに含まない:スケジュール、実装手順、具体的コード
292
300
  - [ ] **変更影響マップの作成**(必須)
293
301
  - [ ] 要件への対応と設計の妥当性
294
302
  - [ ] エラーハンドリング戦略
295
- - [ ] 受入条件がテスト可能な形式で記述されていること(具体的なトリガー、操作、期待結果)
303
+ - [ ] 受入条件がテスト可能な形式で記述されていること(ユーザーから観察可能な振る舞い、統合/E2E指向、CI隔離可能)
296
304
  - [ ] インターフェース変更マトリクスの完成度
297
305
  - [ ] 実装アプローチ(垂直/水平/ハイブリッド)の選択根拠
298
306
  - [ ] 最新のベストプラクティスの調査と参考資料の記載
299
307
  - [ ] **複雑性評価**: complexity_levelを設定。medium/highの場合、complexity_rationaleに(1)要件/AC、(2)制約/リスクを明記
300
308
  - [ ] **データ構造の採用判断の文書化**(新規構造導入時)
301
309
  - [ ] **フィールド伝播マップの記載**(フィールドが境界を越える場合)
310
+ - [ ] **検証戦略の定義**(正しさの定義、検証手法、タイミング、早期検証ポイント)
302
311
 
303
312
  **reverse-engineerモード限定**:
304
313
  - [ ] すべてのアーキテクチャ主張がfile:lineをevidenceとして引用
@@ -26,7 +26,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
26
26
 
27
27
  ## 必要情報
28
28
 
29
- - **PRD**: PRDドキュメントパス(存在する場合は必須、なければrequirement-analyzerの出力を使用)
29
+ - **PRD**: PRDドキュメントパス(存在する場合は必須、なければ要件分析の出力を使用)
30
30
  - **プロトタイプコードパス**: プロトタイプコードへのパス(任意、`docs/ui-spec/assets/{feature-name}/`に配置)
31
31
  - **既存フロントエンドコードベース**: 自動的に調査
32
32
 
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: verifier
3
- description: 調査結果を批判的に評価し見落としを探す。Use when investigatorの調査完了後、または「検証/本当に/確認/見落とし/他の可能性」が言及された時。ACH・Devil's Advocate手法で妥当性を検証し結論を導出。
3
+ description: 調査結果を批判的に評価し見落としを探す。ACH・Devil's Advocate手法で妥当性を検証し結論を導出。Use when 調査が完了した後、または「検証/妥当性確認/ダブルチェック/調査結果の確認」が言及された時。
4
4
  tools: Read, Grep, Glob, LS, Bash, WebSearch, TaskCreate, TaskUpdate
5
5
  skills: project-context, technical-spec, coding-standards
6
6
  ---
@@ -17,7 +17,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
17
17
  - documentation-criteriaスキルでドキュメント作成基準を適用
18
18
  - technical-specスキルで技術仕様を確認
19
19
  - project-contextスキルでプロジェクトコンテキストを把握
20
- - implementation-approachスキルで実装戦略パターンと確認レベル定義(タスク分解で使用)
20
+ - implementation-approachスキルで実装戦略パターンと検証レベル定義(タスク分解で使用)
21
21
 
22
22
  ## 計画プロセス
23
23
 
@@ -26,6 +26,7 @@ Design Doc、UI Spec、PRD、ADR(提供されている場合)を読み込み
26
26
  - 受入条件と実装アプローチ
27
27
  - 技術的依存関係と実装順序
28
28
  - 統合ポイントとそのコントラクト
29
+ - **検証戦略**: 正しさの証明方法(正しさの定義、検証手法、検証タイミング)と早期検証ポイント(最初の検証対象、成功基準、失敗時の対応)
29
30
 
30
31
  ### 2. テスト設計情報の処理(提供時)
31
32
  テストスケルトンファイルを読み込み、メタ情報を抽出(テスト設計情報の処理セクションを参照)。
@@ -34,11 +35,15 @@ Design Doc、UI Spec、PRD、ADR(提供されている場合)を読み込み
34
35
  テストスケルトンが提供されている場合は戦略A(TDD)、そうでなければ戦略B(実装優先)を選択。実装戦略の選択セクションを参照。
35
36
 
36
37
  ### 4. フェーズの構成
37
- Design Docの技術的依存関係に基づいてフェーズを構成:
38
- - 依存が最も少ないタスクを前のフェーズに配置
38
+
39
+ **全アプローチ共通**:
40
+ - **検証戦略の要約を作業計画書ヘッダーに記載**(後続タスクへの参照用)
41
+ - 検証戦略の検証タイミングに対応するフェーズに検証タスクを配置
39
42
  - テストスケルトンが提供されている場合、統合テスト実装を対応するフェーズに配置し、E2Eテスト実行を最終フェーズに配置
40
43
  - テストスケルトンが提供されていない場合、Design Docの受入条件に基づくテスト実装タスクを含める
41
- - 最終フェーズに品質保証を含める
44
+ - 最終フェーズは常に品質保証
45
+
46
+ **フェーズ構成**: Design Docの実装アプローチに基づいて選択。詳細はdocumentation-criteriaスキルのフェーズ分割基準を参照。plan-templateのOption A(垂直)またはOption B(水平)に従う。ハイブリッドの場合はOption Aをベースに、必要に応じて水平基盤フェーズを追加する。
42
47
 
43
48
  ### 5. 完了条件付きタスクの定義
44
49
  各タスクについて、Design Docの受入条件から完了条件を導出。3要素の完了定義(実装完了、品質完了、統合完了)を適用。
@@ -53,7 +58,7 @@ documentation-criteriaスキルの計画テンプレートに従って作業計
53
58
  - **uiSpec**(オプション): UI Specificationのパス(フロントエンド/フルスタック機能)
54
59
  - **prd**(オプション): PRDドキュメントのパス
55
60
  - **adr**(オプション): ADRドキュメントのパス
56
- - **testSkeletons**(オプション): acceptance-test-generatorからの統合/E2Eテストスケルトンファイルパス
61
+ - **testSkeletons**(オプション): 統合/E2Eテストスケルトンファイルパス(コメントベースのテスト意図記述。実装済みテストではない)
57
62
  - **updateContext**(updateモード時のみ): 既存計画書のパス、変更理由
58
63
 
59
64
  ## 作業計画書出力形式
@@ -189,7 +194,7 @@ E2Eテストスケルトンが提供された場合、2段階で環境前提条
189
194
  - E2Eテスト: 「E2Eテスト実行」を最終Phaseに配置(実装は不要、実行のみ)
190
195
 
191
196
  ### 実装アプローチの適用
192
- Design Docで決定された実装アプローチと技術的依存関係に基づき、implementation-approachスキルの確認レベル(L1/L2/L3)に従ってタスクを分解する。
197
+ Design Docで決定された実装アプローチと技術的依存関係に基づき、implementation-approachスキルの検証レベル(L1/L2/L3)に従ってタスクを分解する。
193
198
 
194
199
  ### タスク依存の最小化ルール
195
200
  - 依存は最大2階層まで(A→B→Cは可、A→B→C→Dは再設計)
@@ -215,7 +220,9 @@ Design Docの技術的依存関係と実装アプローチに基づいてフェ
215
220
  ## 品質チェックリスト
216
221
 
217
222
  - [ ] Design Doc(複数時は各Doc)の整合性確認
218
- - [ ] 技術的依存関係に基づくフェーズ構成
223
+ - [ ] Design Docから検証戦略を抽出し計画書ヘッダーに記載
224
+ - [ ] フェーズ構成が実装アプローチと整合(垂直 → 価値単位フェーズ、水平 → レイヤーフェーズ)
225
+ - [ ] 早期検証ポイントをPhase 1に配置(検証戦略で指定されている場合)
219
226
  - [ ] 全要件のタスク化
220
227
  - [ ] 最終フェーズに品質保証の存在
221
228
  - [ ] テストスケルトンファイルパスを対応するフェーズに記載(提供時)
@@ -41,8 +41,8 @@ Target document → [Stop: Confirm changes]
41
41
  - Consistency verification with design-sync (Design Doc only)
42
42
 
43
43
  **NOT included**:
44
- - New requirement analysis (use /design for new documents)
45
- - Work planning or implementation (use /plan or /task after this command)
44
+ - New requirement analysis
45
+ - Work planning or implementation
46
46
 
47
47
  **Responsibility Boundary**: This command completes with updated document approval.
48
48
 
@@ -64,7 +64,7 @@ ls docs/design/*.md docs/prd/*.md docs/adr/*.md 2>/dev/null | grep -v template
64
64
  | $ARGUMENTS specifies a path | Use specified document |
65
65
  | $ARGUMENTS describes a topic | Search documents matching the topic |
66
66
  | Multiple candidates found | Present options with AskUserQuestion |
67
- | No documents found | Report and end (suggest /design instead) |
67
+ | No documents found | Report and end (document creation is out of scope) |
68
68
 
69
69
  ### Step 2: Document Type and Layer Determination
70
70
 
@@ -194,7 +194,7 @@ prompt: |
194
194
 
195
195
  | Error | Action |
196
196
  |-------|--------|
197
- | Target document not found | Report and end (suggest /design instead) |
197
+ | Target document not found | Report and end (document creation is out of scope) |
198
198
  | Sub-agent update fails | Log failure, present error to user, retry once |
199
199
  | Review rejects after 2 revisions | Stop loop, flag for human intervention |
200
200
  | design-sync detects conflicts | Present to user for resolution decision |
@@ -41,8 +41,8 @@ description: 既存設計ドキュメント(Design Doc / PRD / ADR)をレビ
41
41
  - design-syncによる整合性検証(Design Docのみ)
42
42
 
43
43
  **実行しない**:
44
- - 新規要件分析(新規ドキュメントには/designを使用)
45
- - 作業計画や実装(本コマンド後に/planまたは/taskを使用)
44
+ - 新規要件分析
45
+ - 作業計画や実装
46
46
 
47
47
  **責務境界**: このコマンドは更新されたドキュメントの承認で責務完了。
48
48
 
@@ -64,7 +64,7 @@ ls docs/design/*.md docs/prd/*.md docs/adr/*.md 2>/dev/null | grep -v template
64
64
  | $ARGUMENTSがパスを指定 | 指定ドキュメントを使用 |
65
65
  | $ARGUMENTSがトピックを記述 | トピックに合致するドキュメントを検索 |
66
66
  | 複数の候補が見つかった | AskUserQuestionで選択肢を提示 |
67
- | ドキュメントが見つからない | 報告して終了(代わりに/designを推奨) |
67
+ | ドキュメントが見つからない | 報告して終了(ドキュメント新規作成は本コマンドの対象外) |
68
68
 
69
69
  ### ステップ2: ドキュメントタイプとレイヤーの判定
70
70
 
@@ -194,7 +194,7 @@ prompt: |
194
194
 
195
195
  | エラー | アクション |
196
196
  |--------|-----------|
197
- | 対象ドキュメントが見つからない | 報告して終了(代わりに/designを推奨) |
197
+ | 対象ドキュメントが見つからない | 報告して終了(ドキュメント新規作成は本コマンドの対象外) |
198
198
  | サブエージェントの更新が失敗 | 失敗をログ、エラーをユーザーに提示、1回リトライ |
199
199
  | 2回の修正後もレビューがリジェクト | ループを停止、人間介入用にフラグ |
200
200
  | design-syncが矛盾を検出 | 解決判断のためユーザーに提示 |
@@ -133,6 +133,9 @@ description: Guides PRD, ADR, Design Doc, and Work Plan creation. Use when creat
133
133
  - **Data representation decision** (when introducing new structures)
134
134
  - **Applicable standards** (explicit/implicit classification)
135
135
  - **Prerequisite ADRs** (including common ADRs)
136
+ - **Verification Strategy** (required)
137
+ - Correctness proof method (what "correct" means for this change, how it's verified, when)
138
+ - Early verification point (first target to prove the approach works, success criteria, failure response)
136
139
 
137
140
  **Excludes**:
138
141
  - Why that technology was chosen (->Reference ADR)
@@ -146,19 +149,33 @@ description: Guides PRD, ADR, Design Doc, and Work Plan creation. Use when creat
146
149
  **Includes**:
147
150
  - Task breakdown and dependencies (maximum 2 levels)
148
151
  - Schedule and duration estimates
149
- - **Include test skeleton file paths from acceptance-test-generator** (integration and E2E)
150
- - **Phase 4 Quality Assurance Phase (required)**
152
+ - **Include test skeleton file paths** (integration and E2E)
153
+ - **Verification Strategy summary** (extracted from Design Doc)
154
+ - **Final Quality Assurance Phase (required)**
151
155
  - Progress records (checkbox format)
152
156
 
153
157
  **Excludes**:
154
158
  - Technical rationale (->ADR)
155
159
  - Design details (->Design Doc)
156
160
 
157
- **Phase Division Criteria**:
161
+ **Phase Division Criteria** (adapt to implementation approach from Design Doc):
162
+
163
+ **When Vertical Slice selected**:
164
+ - Each phase = one value unit (feature, component, or migration target)
165
+ - Each phase includes its own implementation + verification per Verification Strategy
166
+ - Final Phase: Quality Assurance (cross-cutting verification, all tests passing)
167
+
168
+ **When Horizontal Slice selected**:
158
169
  1. **Phase 1: Foundation Implementation** - Type definitions, interfaces, test preparation
159
170
  2. **Phase 2: Core Feature Implementation** - Business logic, unit tests
160
171
  3. **Phase 3: Integration Implementation** - External connections, presentation layer
161
- 4. **Phase 4: Quality Assurance (Required)** - Acceptance criteria achievement, all tests passing, quality checks
172
+ 4. **Final Phase: Quality Assurance (Required)** - Acceptance criteria achievement, all tests passing, quality checks
173
+
174
+ **When Hybrid selected**:
175
+ - Combine vertical and horizontal as defined in Design Doc implementation approach
176
+ - Final Phase: Quality Assurance (Required)
177
+
178
+ **All approaches**: Final phase is always Quality Assurance. Each phase's verification method follows Verification Strategy from Design Doc.
162
179
 
163
180
  **Three Elements of Task Completion Definition**:
164
181
  1. **Implementation Complete**: Code is functional
@@ -286,6 +286,26 @@ Mark as N/A with brief rationale when the feature has no data layer dependencies
286
286
 
287
287
  - [List critical integration points that require testing beyond unit-level mocks]
288
288
 
289
+ ## Verification Strategy
290
+
291
+ Verification Strategy defines what correctness means and how to prove it at design time. L1/L2/L3 (from implementation-approach skill) define completion verification granularity at task execution time.
292
+
293
+ ### Correctness Proof Method
294
+
295
+ How will this change's correctness be demonstrated?
296
+
297
+ - **Correctness definition**: [What "correct" means for this change — e.g., "output matches existing behavior", "all ACs pass in production-equivalent environment", "generated queries execute without error on target DB"]
298
+ - **Verification method**: [Specific technique — e.g., "compare new implementation output against existing implementation", "run against staging DB", "contract test with real API"]
299
+ - **Verification timing**: [When verification occurs — e.g., "after first vertical slice", "per repository", "at integration phase"]
300
+
301
+ ### Early Verification Point
302
+
303
+ What is verified first, and how, to confirm the approach is correct before scaling?
304
+
305
+ - **First verification target**: [The smallest unit that proves the approach works — e.g., "first repository migration", "single API endpoint", "one screen flow"]
306
+ - **Success criteria**: [Observable outcome — e.g., "CSV download produces identical output to legacy", "API returns 200 with expected schema"]
307
+ - **Failure response**: [What to do if early verification fails — e.g., "reassess approach before proceeding", "escalate to user"]
308
+
289
309
  ## Alternative Solutions
290
310
 
291
311
  ### Alternative 1
@@ -12,6 +12,18 @@ Related Issue/PR: #XXX (if any)
12
12
  - ADR: [docs/adr/ADR-XXXX.md] (if any)
13
13
  - PRD: [docs/prd/XXX.md] (if any)
14
14
 
15
+ ## Verification Strategy (from Design Doc)
16
+
17
+ ### Correctness Proof Method
18
+ - **Correctness definition**: [extracted from Design Doc]
19
+ - **Verification method**: [extracted from Design Doc]
20
+ - **Verification timing**: [extracted from Design Doc]
21
+
22
+ ### Early Verification Point
23
+ - **First verification target**: [extracted from Design Doc]
24
+ - **Success criteria**: [extracted from Design Doc]
25
+ - **Failure response**: [extracted from Design Doc]
26
+
15
27
  ## Objective
16
28
  [Why this change is necessary, what problem it solves]
17
29
 
@@ -31,51 +43,90 @@ Related Issue/PR: #XXX (if any)
31
43
  - [ ] Design Doc update needed
32
44
  - [ ] README update needed
33
45
 
34
- ## Implementation Plan
46
+ ## Implementation Phases
35
47
 
36
- (Note: Phase structure is determined based on Design Doc technical dependencies and implementation approach)
48
+ Select ONE phase structure based on implementation approach from Design Doc.
49
+ See documentation-criteria skill for detailed Phase Division Criteria.
50
+ **Delete the unused Option entirely from the final plan.** For hybrid approach, use Option A as the base and add horizontal foundation phases where needed.
37
51
 
38
- ### Phase 1: [Phase Name] (Estimated commits: X)
39
- **Purpose**: [What this phase aims to achieve]
52
+ ### Option A: Vertical Slice Phase Structure
40
53
 
41
- #### Tasks
54
+ Use when implementation approach is Vertical Slice. Each phase = one value unit with verification.
55
+
56
+ #### Phase 1: [Value Unit 1 Name] (Estimated commits: X)
57
+ **Purpose**: [First vertical slice — proves approach works]
58
+ **Verification**: [From Verification Strategy: early verification point]
59
+
60
+ ##### Tasks
61
+ - [ ] Task 1: Implementation
62
+ - [ ] Task 2: Verification per Verification Strategy
63
+ - [ ] Quality check: Implement staged quality checks (refer to technical-spec skill)
64
+
65
+ ##### Phase Completion Criteria
66
+ - [ ] Early verification point passed
67
+ - [ ] [Functional criteria]
68
+
69
+ #### Phase 2: [Value Unit 2 Name] (Estimated commits: X)
70
+ **Purpose**: [Subsequent value unit]
71
+ **Verification**: [From Verification Strategy]
72
+
73
+ ##### Tasks
74
+ - [ ] Task 1: Implementation
75
+ - [ ] Task 2: Verification per Verification Strategy
76
+ - [ ] Quality check
77
+
78
+ ##### Phase Completion Criteria
79
+ - [ ] [Functional criteria]
80
+ - [ ] [Quality criteria]
81
+
82
+ ### Option B: Horizontal Slice Phase Structure
83
+
84
+ Use when implementation approach is Horizontal Slice. Phases follow Foundation → Core → Integration → QA.
85
+
86
+ #### Phase 1: [Foundation] (Estimated commits: X)
87
+ **Purpose**: Contract definitions, interfaces, test preparation
88
+
89
+ ##### Tasks
42
90
  - [ ] Task 1: Specific work content
43
91
  - [ ] Task 2: Specific work content
44
92
  - [ ] Quality check: Implement staged quality checks (refer to technical-spec skill)
45
93
  - [ ] Unit tests: All related tests pass
46
94
 
47
- #### Phase Completion Criteria
95
+ ##### Phase Completion Criteria
48
96
  - [ ] [Functional completion criteria]
49
97
  - [ ] [Quality completion criteria]
50
98
 
51
- ### Phase 2: [Phase Name] (Estimated commits: X)
52
- **Purpose**: [What this phase aims to achieve]
99
+ #### Phase 2: [Core Feature] (Estimated commits: X)
100
+ **Purpose**: Business logic, unit tests
53
101
 
54
- #### Tasks
102
+ ##### Tasks
55
103
  - [ ] Task 1: Specific work content
56
104
  - [ ] Task 2: Specific work content
57
- - [ ] Quality check: Implement staged quality checks (refer to technical-spec skill)
105
+ - [ ] Quality check
58
106
  - [ ] Integration tests: Verify overall feature functionality
59
107
 
60
- #### Phase Completion Criteria
108
+ ##### Phase Completion Criteria
61
109
  - [ ] [Functional completion criteria]
62
110
  - [ ] [Quality completion criteria]
63
111
 
64
- ### Phase 3: [Phase Name] (Estimated commits: X)
65
- **Purpose**: [What this phase aims to achieve]
112
+ #### Phase 3: [Integration] (Estimated commits: X)
113
+ **Purpose**: External connections, presentation layer
66
114
 
67
- #### Tasks
115
+ ##### Tasks
68
116
  - [ ] Task 1: Specific work content
69
117
  - [ ] Task 2: Specific work content
70
- - [ ] Quality check: Implement staged quality checks (refer to technical-spec skill)
118
+ - [ ] Quality check
71
119
  - [ ] Integration tests: Verify component coordination
72
120
 
73
- #### Phase Completion Criteria
121
+ ##### Phase Completion Criteria
74
122
  - [ ] [Functional completion criteria]
75
123
  - [ ] [Quality completion criteria]
76
124
 
77
125
  ### Final Phase: Quality Assurance (Required) (Estimated commits: 1)
78
- **Purpose**: Overall quality assurance and Design Doc consistency verification
126
+
127
+ This phase is required for ALL implementation approaches.
128
+
129
+ **Purpose**: Cross-cutting quality assurance and Design Doc consistency verification
79
130
 
80
131
  #### Tasks
81
132
  - [ ] Verify all Design Doc acceptance criteria achieved
@@ -33,9 +33,16 @@ Files to read before starting implementation (file path, with optional search hi
33
33
  - [ ] Improve code (maintain passing tests)
34
34
  - [ ] Confirm added tests still pass
35
35
 
36
+ ## Operation Verification Methods
37
+ (Derived from Verification Strategy in work plan)
38
+ - **Verification method**: [What to verify and how — e.g., "compare new implementation output against existing implementation at src/legacy/order_calc", "run endpoint against test database and verify response matches contract"]
39
+ - **Success criteria**: [Observable outcome that proves correctness — e.g., "output matches existing implementation for all input combinations", "API returns 200 with expected schema"]
40
+ - **Failure response**: [What to do if verification fails — e.g., "reassess approach before proceeding", "escalate to user"]
41
+ - **Verification level**: [L1/L2/L3, per implementation-approach skill]
42
+
36
43
  ## Completion Criteria
37
44
  - [ ] All added tests pass
38
- - [ ] Operation verified (select L1/L2/L3, per implementation-approach skill)
45
+ - [ ] Operation verified per Operation Verification Methods above
39
46
  - [ ] Deliverables created (for research/design tasks)
40
47
 
41
48
  ## Notes
@@ -272,6 +272,10 @@ Construct the prompt from the agent's Input Parameters section and the deliverab
272
272
  **Pass to code-verifier**: Design Doc path (doc_type: design-doc). `code_paths` is intentionally omitted — the verifier independently discovers code scope from the document.
273
273
  **Pass to document-reviewer**: code-verifier JSON output as `code_verification` parameter.
274
274
 
275
+ #### technical-designer → work-planner
276
+
277
+ **Pass to work-planner**: Design Doc path. Work-planner extracts Verification Strategy from the Design Doc and includes it in the work plan header.
278
+
275
279
  #### *1 acceptance-test-generator → work-planner
276
280
 
277
281
  **Pass to acceptance-test-generator**:
@@ -102,7 +102,7 @@ skills:
102
102
 
103
103
  documentation-criteria:
104
104
  skill: "documentation-criteria"
105
- tags: [documentation, adr, prd, ui-spec, design-doc, work-plan, decision-matrix]
105
+ tags: [documentation, adr, prd, ui-spec, design-doc, work-plan, decision-matrix, verification-strategy]
106
106
  typical-use: "Implementation start scale assessment, document creation decisions, ADR/PRD/Design Doc/work plan creation criteria"
107
107
  size: medium
108
108
  key-references:
@@ -119,11 +119,12 @@ skills:
119
119
  - "AI Automation Rules"
120
120
  - "Diagram Requirements"
121
121
  - "Common ADR Relationships"
122
+ - "Phase Division Criteria"
122
123
  - "Templates"
123
124
 
124
125
  implementation-approach:
125
126
  skill: "implementation-approach"
126
- tags: [architecture, implementation, task-decomposition, strategy-patterns, strangler-pattern, facade-pattern, design, planning, confirmation-levels]
127
+ tags: [architecture, implementation, task-decomposition, strategy-patterns, strangler-pattern, facade-pattern, design, planning, verification-levels]
127
128
  typical-use: "Implementation strategy selection, task decomposition, design decisions, large-scale change planning"
128
129
  size: medium
129
130
  key-references:
@@ -133,6 +133,9 @@ description: PRD、ADR、Design Doc、作業計画書の作成を支援。技術
133
133
  - **データ構造の採用判断**(新規構造導入時)
134
134
  - **適用基準**(explicit/implicit分類)
135
135
  - **前提となるADR**(共通ADR含む)
136
+ - **検証戦略**(必須)
137
+ - 正しさの証明方法(この変更で「正しい」とは何か、どう検証するか、いつ検証するか)
138
+ - 早期検証ポイント(アプローチの妥当性を証明する最初の対象、成功基準、失敗時の対応)
136
139
 
137
140
  **必須構造要素**:
138
141
  ```yaml
@@ -162,7 +165,8 @@ description: PRD、ADR、Design Doc、作業計画書の作成を支援。技術
162
165
  - **フェーズ構成**(Design Docの技術的依存関係を基に作成)
163
166
  - タスク分解と依存関係(最大2階層まで)
164
167
  - スケジュールと期間見積もり
165
- - **acceptance-test-generatorのテストスケルトンファイルパスを配置**(統合テスト・E2E)
168
+ - **テストスケルトンファイルパスを配置**(統合テスト・E2E)
169
+ - **検証戦略の要約**(Design Docから抽出)
166
170
  - **最終フェーズに品質保証を含む**(必須)
167
171
  - 進捗記録(チェックボックス形式)
168
172
 
@@ -171,6 +175,25 @@ description: PRD、ADR、Design Doc、作業計画書の作成を支援。技術
171
175
  - 設計の詳細(→Design Doc)
172
176
  - 技術的依存関係の決定(→Design Doc)
173
177
 
178
+ **フェーズ分割基準**(Design Docの実装アプローチに応じて適用):
179
+
180
+ **垂直スライス選択時**:
181
+ - 各フェーズ = 1つの価値単位(機能、コンポーネント、移行対象)
182
+ - 各フェーズに検証戦略に基づく実装+検証を含む
183
+ - 最終フェーズ: 品質保証(横断的検証、全テストパス)
184
+
185
+ **水平スライス選択時**:
186
+ 1. **Phase 1: 基盤実装** - 型定義、インターフェース、テスト準備
187
+ 2. **Phase 2: コア機能実装** - ビジネスロジック、ユニットテスト
188
+ 3. **Phase 3: 統合実装** - 外部接続、プレゼンテーション層
189
+ 4. **最終Phase: 品質保証(必須)** - 受入条件達成、全テストパス、品質チェック
190
+
191
+ **ハイブリッド選択時**:
192
+ - Design Docの実装アプローチに基づき垂直と水平を組み合わせる
193
+ - 最終フェーズ: 品質保証(必須)
194
+
195
+ **全アプローチ共通**: 最終フェーズは常に品質保証。各フェーズの検証手法はDesign Docの検証戦略に従う。
196
+
174
197
  **タスク完了定義の3要素**:
175
198
  1. **実装完了**: コードが動作する
176
199
  2. **品質完了**: テスト・型チェック・リントがパス
@@ -286,6 +286,26 @@ unknowns:
286
286
 
287
287
  - [ユニットレベルのモックを超えるテストが必要な重要な統合ポイントの一覧]
288
288
 
289
+ ## 検証戦略
290
+
291
+ 設計時に「正しさとは何か」「どう証明するか」を定義する。L1/L2/L3(implementation-approachスキル)はタスク実行時の完了検証の粒度を定義する。
292
+
293
+ ### 正しさの証明方法
294
+
295
+ この変更の正しさをどう示すか?
296
+
297
+ - **正しさの定義**: [この変更における「正しい」の意味 — 例: 「既存の振る舞いと出力が一致」「全ACが本番同等環境でパス」「生成クエリが対象DBでエラーなく実行」]
298
+ - **検証手法**: [具体的な技法 — 例: 「新旧実装の出力を比較」「ステージングDBに対して実行」「実APIとのコントラクトテスト」]
299
+ - **検証タイミング**: [検証の実施時期 — 例: 「最初の垂直スライス完了後」「リポジトリごと」「統合フェーズ」]
300
+
301
+ ### 早期検証ポイント
302
+
303
+ アプローチの妥当性を本格展開前に確認するため、最初に何を、どうやって検証するか?
304
+
305
+ - **最初の検証対象**: [アプローチが機能することを証明する最小単位 — 例: 「最初のリポジトリ移行」「単一のAPIエンドポイント」「1つの画面フロー」]
306
+ - **成功基準**: [観察可能な成果 — 例: 「CSVダウンロードが既存と同一の出力を生成」「APIが期待スキーマで200を返す」]
307
+ - **失敗時の対応**: [早期検証が失敗した場合の対処 — 例: 「続行前にアプローチを再評価」「ユーザーにエスカレーション」]
308
+
289
309
  ## 代替案
290
310
 
291
311
  ### 代替案1
@@ -12,6 +12,18 @@
12
12
  - ADR: [docs/adr/ADR-XXXX.md](該当する場合)
13
13
  - PRD: [docs/prd/XXX.md](該当する場合)
14
14
 
15
+ ## 検証戦略(Design Docより)
16
+
17
+ ### 正しさの証明方法
18
+ - **正しさの定義**: [Design Docから抽出]
19
+ - **検証手法**: [Design Docから抽出]
20
+ - **検証タイミング**: [Design Docから抽出]
21
+
22
+ ### 早期検証ポイント
23
+ - **最初の検証対象**: [Design Docから抽出]
24
+ - **成功基準**: [Design Docから抽出]
25
+ - **失敗時の対応**: [Design Docから抽出]
26
+
15
27
  ## 目的
16
28
  [なぜこの変更が必要か、何を解決するか]
17
29
 
@@ -31,51 +43,90 @@
31
43
  - [ ] 設計書更新が必要
32
44
  - [ ] README更新が必要
33
45
 
34
- ## 実装計画
46
+ ## 実装フェーズ
35
47
 
36
- (注: フェーズ構成はDesign Docの技術的依存関係と実装アプローチに基づいて決定)
48
+ Design Docの実装アプローチに基づいてフェーズ構成をひとつ選択する。
49
+ 詳細はdocumentation-criteriaスキルのフェーズ分割基準を参照。
50
+ **未使用のOptionは最終計画書から削除すること。** ハイブリッドの場合はOption Aをベースに、必要に応じて水平基盤フェーズを追加する。
37
51
 
38
- ### Phase 1: [フェーズ名](想定コミット数: X)
39
- **目的**: [このフェーズで達成すること]
52
+ ### Option A: 垂直スライスのフェーズ構成
40
53
 
41
- #### タスク
54
+ 実装アプローチが垂直スライスの場合に使用。各フェーズ = 検証付きの1価値単位。
55
+
56
+ #### Phase 1: [価値単位1の名前](想定コミット数: X)
57
+ **目的**: [最初の垂直スライス — アプローチの妥当性を証明]
58
+ **検証**: [検証戦略の早期検証ポイントから]
59
+
60
+ ##### タスク
61
+ - [ ] タスク1: 実装
62
+ - [ ] タスク2: 検証戦略に基づく検証
63
+ - [ ] 品質チェック: 段階的品質チェック実施(technical-specスキル参照)
64
+
65
+ ##### フェーズ完了条件
66
+ - [ ] 早期検証ポイント通過
67
+ - [ ] [機能条件]
68
+
69
+ #### Phase 2: [価値単位2の名前](想定コミット数: X)
70
+ **目的**: [後続の価値単位]
71
+ **検証**: [検証戦略から]
72
+
73
+ ##### タスク
74
+ - [ ] タスク1: 実装
75
+ - [ ] タスク2: 検証戦略に基づく検証
76
+ - [ ] 品質チェック
77
+
78
+ ##### フェーズ完了条件
79
+ - [ ] [機能条件]
80
+ - [ ] [品質条件]
81
+
82
+ ### Option B: 水平スライスのフェーズ構成
83
+
84
+ 実装アプローチが水平スライスの場合に使用。Foundation → Core → Integration → QAの順。
85
+
86
+ #### Phase 1: [基盤](想定コミット数: X)
87
+ **目的**: 契約定義、インターフェース、テスト準備
88
+
89
+ ##### タスク
42
90
  - [ ] タスク1: 具体的な作業内容
43
91
  - [ ] タスク2: 具体的な作業内容
44
92
  - [ ] 品質チェック: 段階的品質チェック実施(technical-specスキル参照)
45
93
  - [ ] 単体テスト: 関連する全テストがパス
46
94
 
47
- #### フェーズ完了条件
95
+ ##### フェーズ完了条件
48
96
  - [ ] [機能完了条件]
49
97
  - [ ] [品質完了条件]
50
98
 
51
- ### Phase 2: [フェーズ名](想定コミット数: X)
52
- **目的**: [このフェーズで達成すること]
99
+ #### Phase 2: [コア機能](想定コミット数: X)
100
+ **目的**: ビジネスロジック、ユニットテスト
53
101
 
54
- #### タスク
102
+ ##### タスク
55
103
  - [ ] タスク1: 具体的な作業内容
56
104
  - [ ] タスク2: 具体的な作業内容
57
- - [ ] 品質チェック: 段階的品質チェック実施(technical-specスキル参照)
105
+ - [ ] 品質チェック
58
106
  - [ ] 統合テスト: 機能全体の動作確認
59
107
 
60
- #### フェーズ完了条件
108
+ ##### フェーズ完了条件
61
109
  - [ ] [機能完了条件]
62
110
  - [ ] [品質完了条件]
63
111
 
64
- ### Phase 3: [フェーズ名](想定コミット数: X)
65
- **目的**: [このフェーズで達成すること]
112
+ #### Phase 3: [統合](想定コミット数: X)
113
+ **目的**: 外部接続、プレゼンテーション層
66
114
 
67
- #### タスク
115
+ ##### タスク
68
116
  - [ ] タスク1: 具体的な作業内容
69
117
  - [ ] タスク2: 具体的な作業内容
70
- - [ ] 品質チェック: 段階的品質チェック実施(technical-specスキル参照)
118
+ - [ ] 品質チェック
71
119
  - [ ] 統合テスト: コンポーネント連携の検証
72
120
 
73
- #### フェーズ完了条件
121
+ ##### フェーズ完了条件
74
122
  - [ ] [機能完了条件]
75
123
  - [ ] [品質完了条件]
76
124
 
77
125
  ### 最終Phase: 品質保証(必須)(想定コミット数: 1)
78
- **目的**: 全体品質保証とDesign Doc整合性検証
126
+
127
+ このフェーズは全実装アプローチで必須。
128
+
129
+ **目的**: 横断的品質保証とDesign Doc整合性検証
79
130
 
80
131
  #### タスク
81
132
  - [ ] Design Docの全受入条件達成を確認
@@ -33,9 +33,16 @@
33
33
  - [ ] コードを改善(テストはパス状態を維持)
34
34
  - [ ] 追加したテストが引き続きパスすることを確認
35
35
 
36
+ ## 動作検証方法
37
+ (作業計画書の検証戦略から導出)
38
+ - **検証手法**: [何をどう検証するか — 例: 「新実装の出力をsrc/legacy/order_calcの既存実装と比較」「エンドポイントをテストDBに対して実行しレスポンスがコントラクトに一致することを確認」]
39
+ - **成功基準**: [正しさを証明する観察可能な成果 — 例: 「全入力パターンで既存実装と出力が一致」「APIが期待スキーマで200を返す」]
40
+ - **失敗時の対応**: [検証失敗時の対処 — 例: 「続行前にアプローチを再評価」「ユーザーにエスカレーション」]
41
+ - **検証レベル**: [L1/L2/L3、implementation-approachスキル参照]
42
+
36
43
  ## 完了条件
37
44
  - [ ] 追加した全テストがパス
38
- - [ ] 動作確認完了(L1/L2/L3を選択、implementation-approachスキル参照)
45
+ - [ ] 動作検証方法に基づく動作確認完了
39
46
  - [ ] 成果物作成完了(調査・設計タスクの場合)
40
47
 
41
48
  ## 備考
@@ -105,7 +105,7 @@ description: 実装戦略(垂直スライス、水平、ハイブリッド)
105
105
 
106
106
  **Design Docでの記載**:実装戦略の選択理由と根拠を明記する。
107
107
 
108
- ## 確認レベル定義
108
+ ## 検証レベル定義
109
109
 
110
110
  各タスクの完了確認における優先順位:
111
111
 
@@ -266,6 +266,10 @@ requirement-analyzerが複数レイヤー(backend + frontend)にまたがる
266
266
  **code-verifierへの入力**: Design Docパス(doc_type: design-doc)。`code_paths`は意図的に未指定 — verifierがドキュメントからコードスコープを独自に発見する。
267
267
  **document-reviewerへの入力**: code-verifierのJSON出力を`code_verification`パラメータとして渡す。
268
268
 
269
+ #### technical-designer → work-planner
270
+
271
+ **work-plannerへの入力**: Design Docパス。work-plannerがDesign Docから検証戦略を抽出し、作業計画書ヘッダーに記載する。
272
+
269
273
  #### *1 acceptance-test-generator → work-planner
270
274
 
271
275
  **acceptance-test-generatorへの入力**:
@@ -93,7 +93,7 @@ skills:
93
93
 
94
94
  documentation-criteria:
95
95
  skill: "documentation-criteria"
96
- tags: [documentation, decision-making, adr, prd, ui-spec, design-doc, planning, process]
96
+ tags: [documentation, decision-making, adr, prd, ui-spec, design-doc, planning, process, verification-strategy]
97
97
  typical-use: "実装開始時の規模判定、ドキュメント作成判定、ADR/PRD/Design Doc/作業計画書の作成基準"
98
98
  size: medium
99
99
  key-references:
@@ -110,11 +110,12 @@ skills:
110
110
  - "AI自動化ルール"
111
111
  - "図表作成要件"
112
112
  - "共通ADRとの関係性"
113
+ - "フェーズ分割基準"
113
114
  - "テンプレート"
114
115
 
115
116
  implementation-approach:
116
117
  skill: "implementation-approach"
117
- tags: [architecture, implementation, task-decomposition, strategy-patterns, strangler-pattern, facade-pattern, design, planning, confirmation-levels]
118
+ tags: [architecture, implementation, task-decomposition, strategy-patterns, strangler-pattern, facade-pattern, design, planning, verification-levels]
118
119
  typical-use: "実装戦略の選択、タスク分解、設計判断、大規模変更の計画"
119
120
  size: medium
120
121
  key-references:
@@ -124,7 +125,7 @@ skills:
124
125
  - "Facade Pattern - Gang of Four"
125
126
  sections:
126
127
  - "メタ認知的戦略選択プロセス"
127
- - "確認レベル定義"
128
+ - "検証レベル定義"
128
129
  - "統合ポイントの定義"
129
130
  - "アンチパターン"
130
131
  - "メタ認知的実行のための指針"
package/CHANGELOG.md CHANGED
@@ -5,6 +5,25 @@ All notable changes to this project will be documented in this file.
5
5
  The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/),
6
6
  and this project adheres to [Semantic Versioning](https://semver.org/spec/v2.0.0.html).
7
7
 
8
+ ## [1.20.1] - 2026-04-02
9
+
10
+ ### Added
11
+
12
+ - **Verification Strategy flow**: Design Doc → Work Plan → Task pipeline now propagates how correctness is proven. Design template includes Correctness Proof Method and Early Verification Point sections. Work Plan template carries the strategy summary. Task template includes Operation Verification Methods derived from the strategy.
13
+ - **Adaptive Phase Division Criteria**: Work Plan phase structure now adapts to implementation approach — vertical slice produces value-unit phases, horizontal slice retains Foundation → Core → Integration → QA, hybrid uses vertical as base with horizontal foundation phases. Plan template provides Option A/B with explicit instruction to delete the unused option.
14
+ - **Verification Strategy review gates**: document-reviewer Gate 0 checks existence; Gate 1 checks quality (measurability, risk coverage, early verification concreteness, timing alignment with approach)
15
+ - **Verification Strategy propagation in task-decomposer**: New section derives per-task Operation Verification Methods from the work plan's strategy, with concrete instantiation rules for early verification and per-task verification
16
+ - **technical-designer → work-planner bridging**: Orchestration guide documents Verification Strategy handoff between design and planning phases
17
+
18
+ ### Changed
19
+
20
+ - **Agent cross-references removed**: Agent definitions no longer reference other agents by name. `requirement-analyzer` → `requirement analysis`, `code-verifier` → `code verification`, `codebase-analyzer` → `codebase analysis phase`, etc. Orchestration layers own routing decisions.
21
+ - **Acceptance criteria format**: technical-designer and technical-designer-frontend checklist item updated from "concrete trigger, action, and expected result" to "user-observable behaviors, integration/E2E oriented, CI-isolatable"
22
+ - **testSkeletons input contract**: work-planner now describes format expectations (comment-based skeletons, not implemented tests) instead of naming the producer agent
23
+ - **Command self-references removed**: update-doc no longer redirects to other commands; out-of-scope items stated without naming alternatives
24
+ - **Japanese terminology unified**: `確認レベル` (confirmation level) → `検証レベル` (verification level) across all agents, skills, and skills-index to match English `Verification Level Definitions`
25
+ - **skills-index.yaml updated**: `confirmation-levels` tag → `verification-levels`; `verification-strategy` tag and `Phase Division Criteria` section added to documentation-criteria
26
+
8
27
  ## [1.20.0] - 2026-04-01
9
28
 
10
29
  ### Added
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "create-ai-project",
3
- "version": "1.20.0",
3
+ "version": "1.20.1",
4
4
  "packageManager": "npm@10.8.2",
5
5
  "description": "TypeScript boilerplate with skills and sub-agents for Claude Code. Prevents context exhaustion through role-based task splitting.",
6
6
  "keywords": [