create-ai-project 1.20.0 → 1.20.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (35) hide show
  1. package/.claude/agents-en/codebase-analyzer.md +2 -2
  2. package/.claude/agents-en/document-reviewer.md +12 -4
  3. package/.claude/agents-en/solver.md +1 -1
  4. package/.claude/agents-en/task-decomposer.md +16 -0
  5. package/.claude/agents-en/technical-designer-frontend.md +11 -2
  6. package/.claude/agents-en/technical-designer.md +11 -2
  7. package/.claude/agents-en/ui-spec-designer.md +1 -1
  8. package/.claude/agents-en/verifier.md +1 -1
  9. package/.claude/agents-en/work-planner.md +12 -5
  10. package/.claude/agents-ja/document-reviewer.md +12 -4
  11. package/.claude/agents-ja/solver.md +1 -1
  12. package/.claude/agents-ja/task-decomposer.md +17 -1
  13. package/.claude/agents-ja/task-executor.md +1 -1
  14. package/.claude/agents-ja/technical-designer-frontend.md +11 -2
  15. package/.claude/agents-ja/technical-designer.md +12 -3
  16. package/.claude/agents-ja/ui-spec-designer.md +1 -1
  17. package/.claude/agents-ja/verifier.md +1 -1
  18. package/.claude/agents-ja/work-planner.md +14 -7
  19. package/.claude/commands-en/update-doc.md +4 -4
  20. package/.claude/commands-ja/update-doc.md +4 -4
  21. package/.claude/skills-en/documentation-criteria/SKILL.md +21 -4
  22. package/.claude/skills-en/documentation-criteria/references/design-template.md +20 -0
  23. package/.claude/skills-en/documentation-criteria/references/plan-template.md +68 -17
  24. package/.claude/skills-en/documentation-criteria/references/task-template.md +8 -1
  25. package/.claude/skills-en/subagents-orchestration-guide/SKILL.md +57 -17
  26. package/.claude/skills-en/task-analyzer/references/skills-index.yaml +3 -2
  27. package/.claude/skills-ja/documentation-criteria/SKILL.md +24 -1
  28. package/.claude/skills-ja/documentation-criteria/references/design-template.md +20 -0
  29. package/.claude/skills-ja/documentation-criteria/references/plan-template.md +68 -17
  30. package/.claude/skills-ja/documentation-criteria/references/task-template.md +8 -1
  31. package/.claude/skills-ja/implementation-approach/SKILL.md +1 -1
  32. package/.claude/skills-ja/subagents-orchestration-guide/SKILL.md +59 -17
  33. package/.claude/skills-ja/task-analyzer/references/skills-index.yaml +4 -3
  34. package/CHANGELOG.md +35 -0
  35. package/package.json +1 -1
@@ -13,7 +13,7 @@ You are an AI assistant specializing in existing codebase analysis for technical
13
13
 
14
14
  ## Input Parameters
15
15
 
16
- - **requirement_analysis**: JSON output from requirement-analyzer (required)
16
+ - **requirement_analysis**: Requirement analysis JSON output (required)
17
17
  - Provides: `affectedFiles`, `scale`, `purpose`, `technicalConsiderations`
18
18
 
19
19
  - **prd_path**: Path to PRD (optional, available for Large scale)
@@ -156,7 +156,7 @@ Return the JSON result as the final response. See Output Format for the schema.
156
156
 
157
157
  ## Completion Criteria
158
158
 
159
- - [ ] Parsed requirement-analyzer output and identified analysis categories
159
+ - [ ] Parsed requirement analysis output and identified analysis categories
160
160
  - [ ] Read all affected files and extracted public interfaces with file:line references
161
161
  - [ ] Traced one level of imports for each affected file
162
162
  - [ ] Searched for data access, external integration, and validation patterns using Grep
@@ -38,7 +38,7 @@ Operates in an independent context without CLAUDE.md principles, executing auton
38
38
  - **doc_type**: Document type (`PRD`/`ADR`/`UISpec`/`DesignDoc`)
39
39
  - **target**: Document path to review
40
40
 
41
- - **code_verification**: Code-verifier results JSON (optional)
41
+ - **code_verification**: Code verification results JSON (optional)
42
42
  - When provided, incorporate as pre-verified evidence in Gate 1 quality assessment
43
43
  - Discrepancies and reverse coverage gaps inform consistency and completeness checks
44
44
 
@@ -83,6 +83,7 @@ For DesignDoc, additionally verify:
83
83
  - [ ] Code inspection evidence recorded (files and functions listed)
84
84
  - [ ] Applicable standards listed with explicit/implicit classification
85
85
  - [ ] Field propagation map present (when fields cross boundaries)
86
+ - [ ] Verification Strategy section present with: correctness definition, verification method, verification timing, early verification point
86
87
 
87
88
  #### Gate 1: Quality Assessment (only after Gate 0 passes)
88
89
 
@@ -99,7 +100,12 @@ For DesignDoc, additionally verify:
99
100
  - Dependency realizability check: For each dependency the Design Doc's Existing Codebase Analysis section describes as "existing", verify its definition exists in the codebase using Grep/Glob. Not found in codebase and no authoritative external source documented → `critical` issue (category: `feasibility`). Found but definition signature (method names, parameter types, return types) diverges from Design Doc description → `important` issue (category: `consistency`)
100
101
  - **As-is implementation document review**: When code verification results are provided and the document describes existing implementation (not future requirements), verify that code-observable behaviors are stated as facts; speculative language about deterministic behavior → `important` issue
101
102
  - **Data design completeness check**: When document contains data-storage keywords (database, persistence, storage, migration) or data-access keywords (repository, query, ORM, SQL) or data-schema keywords (table, schema, column) but lacks data design content (no schema references, no "Test Boundaries" section with data layer strategy, no data model documentation) → `important` issue (category: `completeness`). Note: generic terms like "model", "field", "record", "entity" alone are insufficient to trigger this check — require co-occurrence with at least one data-storage or data-access keyword
102
- - **Code-verifier integration**: When `code_verification` input is provided, each item in `undocumentedDataOperations` absent from the document → `important` issue (category: `completeness`). Each discrepancy from code-verifier with severity `critical` or `major` → incorporate as pre-verified evidence in the corresponding review check
103
+ - **Code verification integration**: When `code_verification` input is provided, each item in `undocumentedDataOperations` absent from the document → `important` issue (category: `completeness`). Each discrepancy from code verification with severity `critical` or `major` → incorporate as pre-verified evidence in the corresponding review check
104
+ - **Verification Strategy quality check** (when Verification Strategy section exists):
105
+ - Correctness definition is specific and measurable — "tests pass" without specifying which tests or what they verify → `important` issue (category: `completeness`)
106
+ - Verification method is sufficient for the change's risk and dependency type — method that cannot detect the primary risk category (e.g., schema correctness, behavioral equivalence, integration compatibility) → `important` issue (category: `consistency`)
107
+ - Early verification point identifies a concrete first target — "TBD" or "final phase" → `important` issue (category: `completeness`)
108
+ - When vertical slice is selected, verification timing deferred entirely to final phase → `important` issue (category: `consistency`)
103
109
 
104
110
  **Perspective-specific Mode**:
105
111
  - Implement review based on specified mode and focus
@@ -254,7 +260,9 @@ Include in output when `prior_context_count > 0`:
254
260
  - [ ] Dependencies described as "existing" verified against codebase (Grep/Glob)
255
261
  - [ ] Field propagation map present when fields cross component boundaries
256
262
  - [ ] Data-related keywords present → data design content exists (schema references, Test Boundaries, or data model documentation; or explicitly marked N/A)
257
- - [ ] Code-verifier results (if provided) reconciled with document content
263
+ - [ ] Code verification results (if provided) reconciled with document content
264
+ - [ ] Verification Strategy present with concrete correctness definition and early verification point
265
+ - [ ] Verification Strategy aligns with design_type and implementation approach
258
266
 
259
267
  ## Review Criteria (for Comprehensive Mode)
260
268
 
@@ -320,7 +328,7 @@ Template storage locations follow documentation-criteria skill.
320
328
  ## Important Notes
321
329
 
322
330
  ### Regarding ADR Status Updates
323
- **Important**: document-reviewer only performs review and recommendation decisions. Actual status updates are made after the user's final decision.
331
+ **Important**: This agent only performs review and recommendation decisions. Actual status updates are made after the user's final decision.
324
332
 
325
333
  **Presentation of Review Results**:
326
334
  - Present decisions such as "Approved (recommendation for approval)" or "Rejected (recommendation for rejection)"
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: solver
3
- description: Derives multiple solutions for verified causes and analyzes tradeoffs. Use when verifier has concluded, or when "solution/how to fix/fix method/remedy" is mentioned. Focuses on solutions from given conclusions without investigation.
3
+ description: Derives multiple solutions for verified causes and analyzes tradeoffs. Use when root cause verification has concluded, or when "solution/how to fix/fix method/remedy" is mentioned. Focuses on solutions from given conclusions without investigation.
4
4
  tools: Read, Grep, Glob, LS, TaskCreate, TaskUpdate, WebSearch
5
5
  skills: project-context, technical-spec, coding-standards, implementation-approach
6
6
  ---
@@ -30,6 +30,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
30
30
  - Understand dependencies between phases and tasks
31
31
  - Grasp completion criteria and quality standards
32
32
  - **Interface change detection and response**
33
+ - **Extract Verification Strategy from work plan header**
33
34
 
34
35
  2. **Task Decomposition**
35
36
  - Granularity: 1 commit = 1 task (logical change unit)
@@ -95,6 +96,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
95
96
  - Target files
96
97
  - **Investigation Targets** (what the executor must read and understand before implementing)
97
98
  - Concrete implementation steps
99
+ - **Operation Verification Methods** (derived from Verification Strategy in work plan)
98
100
  - Completion criteria
99
101
 
100
102
  6. **Investigation Targets Determination**
@@ -107,6 +109,7 @@ Decompose tasks based on implementation strategy patterns determined in implemen
107
109
  | Test implementation | Test skeleton comments/annotations, the target code being tested, actual API/auth flows |
108
110
  | E2E environment setup | Current environment config (startup scripts, docker-compose or equivalent), seed scripts, existing fixture patterns, application auth flow |
109
111
  | Bug fix / refactor | The affected code paths, related test coverage, error reproduction context |
112
+ | Behavior replacement / rewrite | The existing implementation being replaced, its observable outputs, Design Doc Verification Strategy section |
110
113
 
111
114
  **Principles**:
112
115
  - Every task must have at least one Investigation Target (even if just the Design Doc)
@@ -121,6 +124,19 @@ Decompose tasks based on implementation strategy patterns determined in implemen
121
124
  8. **Utilizing Test Information**
122
125
  When test information (fast-check usage, dependencies, complexity, etc.) is documented in work plans, reflect that information in task files.
123
126
 
127
+ ## Verification Strategy Propagation
128
+
129
+ Verification Strategy defines what correctness means and how to prove it at design time. L1/L2/L3 (from implementation-approach skill) define completion verification granularity at task execution time. Both are set per task.
130
+
131
+ When the work plan includes a Verification Strategy, derive each task's Operation Verification Methods as follows:
132
+
133
+ 1. **Early verification task**: The task whose scope matches the Verification Strategy's "First verification target" field. Copy and instantiate the verification method, success criteria, and failure response from Verification Strategy into Operation Verification Methods for this task's specific target files.
134
+ 2. **Per-task verification**: For each task, set Operation Verification Methods by combining:
135
+ - **Verification method**: Instantiate the Verification Strategy's method for this task's specific target files (e.g., "compare OrderService.calculate() output against existing implementation at src/legacy/order_calc", "run generated API handler against test database and verify response matches contract")
136
+ - **Success criteria**: Instantiate the Verification Strategy's success criteria for this task's scope (e.g., "output matches existing implementation for all input combinations")
137
+ - **Verification level**: Select L1/L2/L3 per implementation-approach skill
138
+ 3. **Investigation Targets**: Include resources needed for verification (e.g., existing implementation for comparison, schema definitions, seed data paths)
139
+
124
140
  ## Task File Template
125
141
 
126
142
  See task template in documentation-criteria skill for details.
@@ -116,6 +116,14 @@ Must be performed when creating Design Doc:
116
116
  - Which task first makes the entire UI operational
117
117
  - Verification level for each task (L1/L2/L3 defined in implementation-approach skill)
118
118
 
119
+ 3. **Verification Strategy Definition**
120
+ - Based on selected approach and design_type, define how correctness will be proven
121
+ - Output must include at least: target comparison (what vs what), method (how), observable success indicator
122
+ - For new_feature: specify AC verification method beyond unit tests (e.g., integration test against real dependencies)
123
+ - For extension: specify regression verification method that proves existing behavior is preserved while new behavior is added
124
+ - For refactoring: specify behavioral equivalence verification method (e.g., output comparison with existing implementation)
125
+ - Define early verification point: what is the first thing to verify, and how, to confirm the approach is correct before scaling
126
+
119
127
  ### Change Impact Map【Required】
120
128
  Must be included when creating Design Doc:
121
129
 
@@ -173,7 +181,7 @@ When a UI Spec exists for the feature (`docs/ui-spec/{feature-name}-ui-spec.md`)
173
181
  - `reverse-engineer`: Document existing frontend architecture as-is (see Reverse-Engineer Mode section)
174
182
 
175
183
  - **Requirements Analysis Results**: Requirements analysis results (scale determination, technical requirements, etc.)
176
- - **Codebase Analysis** (optional, from codebase-analyzer):
184
+ - **Codebase Analysis** (optional, from codebase analysis phase):
177
185
  - When provided, use as the primary source for the "Existing Codebase Analysis" section
178
186
  - `existingElements` → populate Implementation Path Mapping and Code Inspection Evidence
179
187
  - `dataModel` → populate data-related sections (schema references, data contracts)
@@ -326,11 +334,12 @@ class Button extends React.Component {
326
334
  - [ ] **Change impact map created** (required)
327
335
  - [ ] Response to requirements and design validity
328
336
  - [ ] Error handling strategy
329
- - [ ] Acceptance criteria written in testable format (concrete trigger, action, and expected result)
337
+ - [ ] Acceptance criteria written in testable format (user-observable behaviors, integration/E2E oriented, CI-isolatable)
330
338
  - [ ] Props change matrix completeness
331
339
  - [ ] Implementation approach selection rationale (vertical/horizontal/hybrid)
332
340
  - [ ] Latest best practices researched and references cited
333
341
  - [ ] **Complexity assessment**: complexity_level set; if medium/high, complexity_rationale specifies (1) requirements/ACs, (2) constraints/risks
342
+ - [ ] **Verification Strategy defined** (correctness definition, verification method, timing, early verification point)
334
343
 
335
344
  **Reverse-engineer mode only**:
336
345
  - [ ] Every architectural claim cites file:line as evidence
@@ -147,6 +147,14 @@ Must be performed when creating Design Doc:
147
147
  - Which task first makes the whole system operational
148
148
  - Verification level for each task (L1/L2/L3 defined in implementation-approach skill)
149
149
 
150
+ 3. **Verification Strategy Definition**
151
+ - Based on selected approach and design_type, define how correctness will be proven
152
+ - Output must include at least: target comparison (what vs what), method (how), observable success indicator
153
+ - For new_feature: specify AC verification method beyond unit tests (e.g., integration test against real dependencies)
154
+ - For extension: specify regression verification method that proves existing behavior is preserved while new behavior is added
155
+ - For refactoring: specify behavioral equivalence verification method (e.g., output comparison with existing implementation)
156
+ - Define early verification point: what is the first thing to verify, and how, to confirm the approach is correct before scaling
157
+
150
158
  ### Change Impact Map【Required】
151
159
  Must be included when creating Design Doc:
152
160
 
@@ -200,7 +208,7 @@ Document state definitions and transitions for stateful components.
200
208
  - `reverse-engineer`: Document existing architecture as-is (see Reverse-Engineer Mode section)
201
209
 
202
210
  - **Requirements Analysis Results**: Requirements analysis results (scale determination, technical requirements, etc.)
203
- - **Codebase Analysis** (optional, from codebase-analyzer):
211
+ - **Codebase Analysis** (optional, from codebase analysis phase):
204
212
  - When provided, use as the primary source for the "Existing Codebase Analysis" section
205
213
  - `existingElements` → populate Implementation Path Mapping and Code Inspection Evidence
206
214
  - `dataModel` → populate data-related sections (schema references, data contracts)
@@ -293,13 +301,14 @@ Implementation sample creation checklist:
293
301
  - [ ] **Change impact map created** (required)
294
302
  - [ ] Response to requirements and design validity
295
303
  - [ ] Error handling strategy
296
- - [ ] Acceptance criteria written in testable format (concrete trigger, action, and expected result)
304
+ - [ ] Acceptance criteria written in testable format (user-observable behaviors, integration/E2E oriented, CI-isolatable)
297
305
  - [ ] Interface change matrix completeness
298
306
  - [ ] Implementation approach selection rationale (vertical/horizontal/hybrid)
299
307
  - [ ] Latest best practices researched and references cited
300
308
  - [ ] **Complexity assessment**: complexity_level set; if medium/high, complexity_rationale specifies (1) requirements/ACs, (2) constraints/risks
301
309
  - [ ] **Data representation decision documented** (when new structures introduced)
302
310
  - [ ] **Field propagation map included** (when fields cross boundaries)
311
+ - [ ] **Verification Strategy defined** (correctness definition, verification method, timing, early verification point)
303
312
 
304
313
  **Reverse-engineer mode only**:
305
314
  - [ ] Every architectural claim cites file:line as evidence
@@ -26,7 +26,7 @@ Operates in an independent context without CLAUDE.md principles, executing auton
26
26
 
27
27
  ## Required Information
28
28
 
29
- - **PRD**: PRD document path (required if exists; otherwise requirement-analyzer output is used)
29
+ - **PRD**: PRD document path (required if exists; otherwise requirement analysis output is used)
30
30
  - **Prototype code path**: Path to prototype code (optional, placed in `docs/ui-spec/assets/{feature-name}/`)
31
31
  - **Existing frontend codebase**: Will be investigated automatically
32
32
 
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: verifier
3
- description: Critically evaluates investigation results and identifies oversights. Use when investigator completes investigation, or when "verify/really/confirm/oversight/other possibilities" is mentioned. Uses ACH and Devil's Advocate to verify validity and derive conclusions.
3
+ description: Critically evaluates investigation results and identifies oversights using ACH and Devil's Advocate methods. Use when investigation has completed, or when "verify/validate/double-check/confirm findings" is mentioned. Uses ACH and Devil's Advocate to verify validity and derive conclusions.
4
4
  tools: Read, Grep, Glob, LS, Bash, WebSearch, TaskCreate, TaskUpdate
5
5
  skills: project-context, technical-spec, coding-standards
6
6
  ---
@@ -26,6 +26,7 @@ Read the Design Doc(s), UI Spec, PRD, and ADR (if provided). Extract:
26
26
  - Acceptance criteria and implementation approach
27
27
  - Technical dependencies and implementation order
28
28
  - Integration points and their contracts
29
+ - **Verification Strategy**: Correctness Proof Method (correctness definition, verification method, verification timing) and Early Verification Point (first verification target, success criteria, failure response)
29
30
 
30
31
  ### 2. Process Test Design Information (when provided)
31
32
  Read test skeleton files and extract meta information (see Test Design Information Processing section).
@@ -34,11 +35,15 @@ Read test skeleton files and extract meta information (see Test Design Informati
34
35
  Choose Strategy A (TDD) if test skeletons are provided, Strategy B (implementation-first) otherwise. See Implementation Strategy Selection section.
35
36
 
36
37
  ### 4. Compose Phases
37
- Structure phases based on technical dependencies from Design Doc:
38
- - Place tasks with lowest dependencies in earlier phases
38
+
39
+ **Common rules (all approaches)**:
40
+ - **Include Verification Strategy summary in work plan header** for downstream task reference
41
+ - Include verification tasks in the phase corresponding to Verification Strategy's verification timing
39
42
  - When test skeletons are provided, place integration test implementation in corresponding phases and E2E test execution in the final phase
40
43
  - When test skeletons are not provided, include test implementation tasks based on Design Doc acceptance criteria
41
- - Include quality assurance in final phase
44
+ - Final phase is always Quality Assurance
45
+
46
+ **Phase structure**: Select based on implementation approach from Design Doc. See Phase Division Criteria in documentation-criteria skill for detailed definitions. Use plan-template Option A (Vertical) or Option B (Horizontal) accordingly. For hybrid, use Option A as the base and add horizontal foundation phases where needed.
42
47
 
43
48
  ### 5. Define Tasks with Completion Criteria
44
49
  For each task, derive completion criteria from Design Doc acceptance criteria. Apply the 3-element completion definition (Implementation Complete, Quality Complete, Integration Complete).
@@ -53,7 +58,7 @@ Write the work plan following the plan template from documentation-criteria skil
53
58
  - **uiSpec** (optional): Path to UI Specification (frontend/fullstack features)
54
59
  - **prd** (optional): Path to PRD document
55
60
  - **adr** (optional): Path to ADR document
56
- - **testSkeletons** (optional): Paths to integration/E2E test skeleton files from acceptance-test-generator
61
+ - **testSkeletons** (optional): Paths to integration/E2E test skeleton files (comment-based skeletons describing test intent, not implemented tests)
57
62
  - **updateContext** (update mode only): Path to existing plan, reason for changes
58
63
 
59
64
  ## Work Plan Output Format
@@ -216,7 +221,9 @@ When creating work plans, **Phase Structure Diagrams** and **Task Dependency Dia
216
221
  ## Quality Checklist
217
222
 
218
223
  - [ ] Design Doc(s) consistency verification
219
- - [ ] Phase composition based on technical dependencies
224
+ - [ ] Verification Strategy extracted from Design Doc and included in plan header
225
+ - [ ] Phase structure matches implementation approach (vertical → value unit phases, horizontal → layer phases)
226
+ - [ ] Early verification point placed in Phase 1 (when Verification Strategy specifies one)
220
227
  - [ ] All requirements converted to tasks
221
228
  - [ ] Quality assurance exists in final phase
222
229
  - [ ] Test skeleton file paths listed in corresponding phases (when provided)
@@ -38,7 +38,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
38
38
  - **doc_type**: ドキュメントタイプ(`PRD`/`UISpec`/`ADR`/`DesignDoc`)
39
39
  - **target**: レビュー対象のドキュメントパス
40
40
 
41
- - **code_verification**: code-verifier結果JSON(任意)
41
+ - **code_verification**: コード検証結果のJSON(任意)
42
42
  - 提供された場合、Gate 1品質評価の事前検証エビデンスとして組み込む
43
43
  - 不整合と逆方向カバレッジのギャップが整合性・完全性チェックに反映される
44
44
 
@@ -83,6 +83,7 @@ DesignDocの場合、追加で以下を確認:
83
83
  - [ ] コード調査エビデンスの記録(ファイルと関数の一覧)
84
84
  - [ ] 適用基準のexplicit/implicit分類付き一覧
85
85
  - [ ] フィールド伝播マップの存在(フィールドが境界を越える場合)
86
+ - [ ] 検証戦略セクションの存在(正しさの定義、検証手法、検証タイミング、早期検証ポイント)
86
87
 
87
88
  #### Gate 1: 品質評価(Gate 0通過後のみ実施)
88
89
 
@@ -99,7 +100,12 @@ DesignDocの場合、追加で以下を確認:
99
100
  - 依存先の実在性検証:Design Docの「既存コードベース分析」セクションが「既存」と記述する依存先について、Grep/Globでコードベース内の定義を確認。コードベースに見つからず公式の外部出典の記載もない → `critical`(カテゴリ: `feasibility`)。存在するが定義のシグネチャ(メソッド名、パラメータ型、戻り値型)がDesign Docの記述と乖離 → `important`(カテゴリ: `consistency`)
100
101
  - **既存実装ドキュメント検証**: コード検証結果が提供され、ドキュメントが既存実装を記述している場合(将来の要件ではなく)、コードから観察可能な振る舞いが事実として記述されていることを検証する。確定的な振る舞いに対する推測的な表現 → `important`
101
102
  - **データ設計完全性チェック**: ドキュメントにデータ格納キーワード(database, persistence, storage, migration)またはデータアクセスキーワード(repository, query, ORM, SQL)またはデータスキーマキーワード(table, schema, column)が含まれるにもかかわらず、データ設計コンテンツが不足している場合(スキーマ参照なし、データ層戦略を含む「テスト境界」セクションなし、データモデル文書なし) → `important`(カテゴリ: `completeness`)。注: 「model」「field」「record」「entity」等の汎用語のみでは本チェックを発火しない — データ格納またはデータアクセスキーワードとの共起が必要
102
- - **code-verifier連携**: `code_verification`入力が提供された場合、`undocumentedDataOperations`の各項目がドキュメントに不在 → `important`(カテゴリ: `completeness`)。code-verifierのseverityが`critical`または`major`の不整合 → 対応するレビューチェックの事前検証エビデンスとして組み込む
103
+ - **コード検証連携**: `code_verification`入力が提供された場合、`undocumentedDataOperations`の各項目がドキュメントに不在 → `important`(カテゴリ: `completeness`)。コード検証のseverityが`critical`または`major`の不整合 → 対応するレビューチェックの事前検証エビデンスとして組み込む
104
+ - **検証戦略の品質チェック**(検証戦略セクションが存在する場合):
105
+ - 正しさの定義が具体的かつ測定可能であること — どのテストで何を確認するかを特定せず「テストがパス」とだけ記述 → `important`(カテゴリ: `completeness`)
106
+ - 検証手法が変更のリスクと依存タイプに対して十分であること — 主要なリスクカテゴリ(スキーマの正しさ、振る舞いの同等性、統合互換性等)を検出できない手法 → `important`(カテゴリ: `consistency`)
107
+ - 早期検証ポイントが具体的な最初の対象を特定していること — 「TBD」や「最終フェーズ」→ `important`(カテゴリ: `completeness`)
108
+ - 垂直スライス選択時に、検証タイミングが最終フェーズのみに後回し → `important`(カテゴリ: `consistency`)
103
109
 
104
110
  **観点特化モード**:
105
111
  - 指定されたmodeとfocusに基づいてレビューを実施
@@ -254,7 +260,9 @@ DesignDocの場合、追加で以下を確認:
254
260
  - [ ] 「既存」と記述された依存先がコードベースに対して検証されていること(Grep/Glob)
255
261
  - [ ] フィールドが境界を越える場合にフィールド伝播マップが存在すること
256
262
  - [ ] データ関連キーワードが存在する場合 → データ設計コンテンツが存在(スキーマ参照、テスト境界、データモデル文書。または明示的にN/A)
257
- - [ ] code-verifier結果(提供された場合)がドキュメント内容と照合済み
263
+ - [ ] コード検証結果(提供された場合)がドキュメント内容と照合済み
264
+ - [ ] 検証戦略に具体的な正しさの定義と早期検証ポイントが存在すること
265
+ - [ ] 検証戦略がdesign_typeと実装アプローチに整合していること
258
266
 
259
267
  ## レビュー基準(総合モード用)
260
268
 
@@ -320,7 +328,7 @@ DesignDocの場合、追加で以下を確認:
320
328
  ## 重要な注意事項
321
329
 
322
330
  ### ADRステータス更新について
323
- **重要**: document-reviewerはレビューと推奨判定のみを行います。実際のステータス更新はユーザーの最終判断後に行われます。
331
+ **重要**: このエージェントはレビューと推奨判定のみを行います。実際のステータス更新はユーザーの最終判断後に行われます。
324
332
 
325
333
  **レビュー結果の提示**:
326
334
  - 「Approved(承認推奨)」「Rejected(却下推奨)」等の判定を提示
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: solver
3
- description: 検証済み原因に対して複数の解決策を導出しトレードオフを分析。Use when verifierが結論を出した後、または「解決策/どうすれば/修正方法/対処法」が言及された時。調査は行わず与えられた結論から解決に集中。
3
+ description: 検証済み原因に対して複数の解決策を導出しトレードオフを分析。Use when 根本原因の検証が完了した後、または「解決策/どうすれば/修正方法/対処法」が言及された時。調査は行わず与えられた結論から解決に集中。
4
4
  tools: Read, Grep, Glob, LS, TaskCreate, TaskUpdate, WebSearch
5
5
  skills: project-context, technical-spec, coding-standards, implementation-approach
6
6
  ---
@@ -18,7 +18,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
18
18
  **各タスクは適切なレベルで確認可能でなければならない**
19
19
 
20
20
  ### 確認可能性の基準
21
- implementation-approachスキルで定義された確認レベル(L1/L2/L3)に基づいてタスクを設計。
21
+ implementation-approachスキルで定義された検証レベル(L1/L2/L3)に基づいてタスクを設計。
22
22
 
23
23
  ### 実装戦略の適用
24
24
  implementation-approachスキルで決定された実装戦略パターンに基づいてタスクを分解する。
@@ -30,6 +30,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
30
30
  - 各フェーズとタスクの依存関係を理解
31
31
  - 完了条件と品質基準を把握
32
32
  - **インターフェース変更の検出と対応**
33
+ - **作業計画書ヘッダーから検証戦略を抽出**
33
34
 
34
35
  2. **タスクの分解**
35
36
  - 粒度: 1コミット = 1タスク(論理的変更単位)
@@ -95,6 +96,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
95
96
  - 対象ファイル
96
97
  - **調査対象**(executorが実装前に読んで理解すべきもの)
97
98
  - 具体的な実装手順
99
+ - **動作検証方法**(作業計画書の検証戦略から導出)
98
100
  - 完了条件
99
101
 
100
102
  6. **調査対象の決定**
@@ -107,6 +109,7 @@ implementation-approachスキルで決定された実装戦略パターンに基
107
109
  | テスト実装 | テストスケルトンのコメント/アノテーション、テスト対象コード、実際のAPI/認証フロー |
108
110
  | E2E環境セットアップ | 現在の環境設定(起動スクリプト、docker-compose等)、seed scripts、既存のfixtureパターン、アプリケーション認証フロー |
109
111
  | バグ修正 / リファクタリング | 影響を受けるコードパス、関連テストカバレッジ、エラー再現コンテキスト |
112
+ | 振る舞いの置換・リライト | 置換対象の既存実装、その観察可能な出力、Design Docの検証戦略セクション |
110
113
 
111
114
  **原則**:
112
115
  - 全タスクに最低1つの調査対象を設定する(Design Docのみでも可)
@@ -121,6 +124,19 @@ implementation-approachスキルで決定された実装戦略パターンに基
121
124
  8. **テスト情報の活用**
122
125
  作業計画書にテスト情報(fast-check使用、依存関係、複雑度等)が記載されている場合、その情報をタスクファイルに反映する。
123
126
 
127
+ ## 検証戦略の伝播
128
+
129
+ 検証戦略は設計時に「正しさとは何か」「どう証明するか」を定義する。L1/L2/L3(implementation-approachスキル)はタスク実行時の完了検証の粒度を定義する。両方をタスクごとに設定する。
130
+
131
+ 作業計画書に検証戦略が含まれる場合、各タスクの動作検証方法を以下のように導出する:
132
+
133
+ 1. **早期検証タスク**: 検証戦略の「最初の検証対象」フィールドとスコープが一致するタスク。検証戦略の検証手法、成功基準、失敗時の対応を転記し、このタスクの具体的な対象ファイルに即して具体化する。
134
+ 2. **タスクごとの検証**: 各タスクの動作検証方法を以下を組み合わせて設定:
135
+ - **検証手法**: 検証戦略の手法をこのタスクの対象ファイルに具体化(例: 「OrderService.calculate()の出力をsrc/legacy/order_calcの既存実装と比較」「生成したAPIハンドラをテストDBに対して実行しレスポンスがコントラクトに一致することを確認」)
136
+ - **成功基準**: 検証戦略の成功基準をこのタスクのスコープに具体化(例: 「全入力パターンで既存実装と出力が一致」)
137
+ - **検証レベル**: implementation-approachスキルに従いL1/L2/L3を選択
138
+ 3. **調査対象**: 検証に必要なリソースを含める(例: 比較対象の既存実装、スキーマ定義、seed dataのパス)
139
+
124
140
  ## タスクファイルテンプレート
125
141
 
126
142
  詳細はdocumentation-criteriaスキルのタスクテンプレートを参照。
@@ -149,7 +149,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
149
149
 
150
150
  #### 動作確認
151
151
  - タスク内の「動作確認方法」セクションを実行
152
- - implementation-approachスキルで定義された確認レベルに応じた確認を実施
152
+ - implementation-approachスキルで定義された検証レベルに応じた確認を実施
153
153
  - 確認できない場合は理由を記録
154
154
  - 結果を構造化レスポンスに含める
155
155
 
@@ -126,6 +126,14 @@ Design Doc作成時に必ず実施:
126
126
  - どのタスクで初めて全体のUIが動作するか
127
127
  - 各タスクの検証レベル(implementation-approachスキルで定義されたL1/L2/L3)
128
128
 
129
+ 3. **検証戦略の定義**
130
+ - 選択したアプローチとdesign_typeに基づき、正しさの証明方法を定義する
131
+ - 最低限含める項目: 比較対象(何と何を)、手法(どうやって)、観察可能な成功指標
132
+ - new_featureの場合: ユニットテスト以上のAC検証手法を明記(例: 実依存に対する統合テスト)
133
+ - extensionの場合: 既存の振る舞いが維持されつつ新しい振る舞いが追加されることを証明する回帰検証手法を明記
134
+ - refactoringの場合: 振る舞いの同等性を検証する手法を明記(例: 既存実装との出力比較)
135
+ - 早期検証ポイントを定義: アプローチの妥当性を本格展開前に確認するため、最初に何を、どうやって検証するか
136
+
129
137
  ### 変更影響マップ【必須】
130
138
  Design Doc作成時に必ず含める:
131
139
 
@@ -173,7 +181,7 @@ Design Doc作成前に実施:
173
181
  - `reverse-engineer`: 既存フロントエンドアーキテクチャの現状ドキュメント化(reverse-engineerモードセクション参照)
174
182
 
175
183
  - **要件分析結果**: 要件分析の結果(規模判定、技術要件等)
176
- - **コードベース分析**(任意、コードベース分析エージェントから提供):
184
+ - **コードベース分析**(任意、コードベース分析フェーズから提供):
177
185
  - 提供された場合、「既存コードベース分析」セクションの主要ソースとして使用
178
186
  - `existingElements` → Implementation Path MappingとCode Inspection Evidenceに反映
179
187
  - `dataModel` → データ関連セクション(スキーマ参照、データ契約)に反映
@@ -326,11 +334,12 @@ class Button extends React.Component {
326
334
  - [ ] **変更影響マップの作成**(必須)
327
335
  - [ ] 要件への対応と設計の妥当性
328
336
  - [ ] エラーハンドリング戦略
329
- - [ ] 受入条件がテスト可能な形式で記述されていること(具体的なトリガー、操作、期待結果)
337
+ - [ ] 受入条件がテスト可能な形式で記述されていること(ユーザーから観察可能な振る舞い、統合/E2E指向、CI隔離可能)
330
338
  - [ ] Props変更マトリクスの完成度
331
339
  - [ ] 実装アプローチ(垂直/水平/ハイブリッド)の選択根拠
332
340
  - [ ] 最新のベストプラクティスの調査と参考資料の記載
333
341
  - [ ] **複雑性評価**: complexity_levelを設定。medium/highの場合、complexity_rationaleに(1)要件/AC、(2)制約/リスクを明記
342
+ - [ ] **検証戦略の定義**(正しさの定義、検証手法、タイミング、早期検証ポイント)
334
343
 
335
344
  **reverse-engineerモード限定**:
336
345
  - [ ] すべてのアーキテクチャ主張がfile:lineをevidenceとして引用
@@ -145,7 +145,15 @@ Design Doc作成時に必ず実施:
145
145
 
146
146
  2. **統合ポイントの定義**
147
147
  - どのタスクで全体が初めて動作するか
148
- - 各タスクの確認レベル(implementation-approachスキルで定義されたL1/L2/L3)
148
+ - 各タスクの検証レベル(implementation-approachスキルで定義されたL1/L2/L3)
149
+
150
+ 3. **検証戦略の定義**
151
+ - 選択したアプローチとdesign_typeに基づき、正しさの証明方法を定義する
152
+ - 最低限含める項目: 比較対象(何と何を)、手法(どうやって)、観察可能な成功指標
153
+ - new_featureの場合: ユニットテスト以上のAC検証手法を明記(例: 実依存に対する統合テスト)
154
+ - extensionの場合: 既存の振る舞いが維持されつつ新しい振る舞いが追加されることを証明する回帰検証手法を明記
155
+ - refactoringの場合: 振る舞いの同等性を検証する手法を明記(例: 既存実装との出力比較)
156
+ - 早期検証ポイントを定義: アプローチの妥当性を本格展開前に確認するため、最初に何を、どうやって検証するか
149
157
 
150
158
  ### 変更影響マップ【必須】
151
159
  Design Doc作成時に必ず含める:
@@ -200,7 +208,7 @@ Design Doc作成前に実施:
200
208
  - `reverse-engineer`: 既存アーキテクチャの現状ドキュメント化(reverse-engineerモードセクション参照)
201
209
 
202
210
  - **要件分析結果**: 要件分析の結果(規模判定、技術要件等)
203
- - **コードベース分析**(任意、コードベース分析エージェントから提供):
211
+ - **コードベース分析**(任意、コードベース分析フェーズから提供):
204
212
  - 提供された場合、「既存コードベース分析」セクションの主要ソースとして使用
205
213
  - `existingElements` → Implementation Path MappingとCode Inspection Evidenceに反映
206
214
  - `dataModel` → データ関連セクション(スキーマ参照、データ契約)に反映
@@ -292,13 +300,14 @@ ADRに含まない:スケジュール、実装手順、具体的コード
292
300
  - [ ] **変更影響マップの作成**(必須)
293
301
  - [ ] 要件への対応と設計の妥当性
294
302
  - [ ] エラーハンドリング戦略
295
- - [ ] 受入条件がテスト可能な形式で記述されていること(具体的なトリガー、操作、期待結果)
303
+ - [ ] 受入条件がテスト可能な形式で記述されていること(ユーザーから観察可能な振る舞い、統合/E2E指向、CI隔離可能)
296
304
  - [ ] インターフェース変更マトリクスの完成度
297
305
  - [ ] 実装アプローチ(垂直/水平/ハイブリッド)の選択根拠
298
306
  - [ ] 最新のベストプラクティスの調査と参考資料の記載
299
307
  - [ ] **複雑性評価**: complexity_levelを設定。medium/highの場合、complexity_rationaleに(1)要件/AC、(2)制約/リスクを明記
300
308
  - [ ] **データ構造の採用判断の文書化**(新規構造導入時)
301
309
  - [ ] **フィールド伝播マップの記載**(フィールドが境界を越える場合)
310
+ - [ ] **検証戦略の定義**(正しさの定義、検証手法、タイミング、早期検証ポイント)
302
311
 
303
312
  **reverse-engineerモード限定**:
304
313
  - [ ] すべてのアーキテクチャ主張がfile:lineをevidenceとして引用
@@ -26,7 +26,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
26
26
 
27
27
  ## 必要情報
28
28
 
29
- - **PRD**: PRDドキュメントパス(存在する場合は必須、なければrequirement-analyzerの出力を使用)
29
+ - **PRD**: PRDドキュメントパス(存在する場合は必須、なければ要件分析の出力を使用)
30
30
  - **プロトタイプコードパス**: プロトタイプコードへのパス(任意、`docs/ui-spec/assets/{feature-name}/`に配置)
31
31
  - **既存フロントエンドコードベース**: 自動的に調査
32
32
 
@@ -1,6 +1,6 @@
1
1
  ---
2
2
  name: verifier
3
- description: 調査結果を批判的に評価し見落としを探す。Use when investigatorの調査完了後、または「検証/本当に/確認/見落とし/他の可能性」が言及された時。ACH・Devil's Advocate手法で妥当性を検証し結論を導出。
3
+ description: 調査結果を批判的に評価し見落としを探す。ACH・Devil's Advocate手法で妥当性を検証し結論を導出。Use when 調査が完了した後、または「検証/妥当性確認/ダブルチェック/調査結果の確認」が言及された時。
4
4
  tools: Read, Grep, Glob, LS, Bash, WebSearch, TaskCreate, TaskUpdate
5
5
  skills: project-context, technical-spec, coding-standards
6
6
  ---
@@ -17,7 +17,7 @@ CLAUDE.mdの原則を適用しない独立したコンテキストを持ち、
17
17
  - documentation-criteriaスキルでドキュメント作成基準を適用
18
18
  - technical-specスキルで技術仕様を確認
19
19
  - project-contextスキルでプロジェクトコンテキストを把握
20
- - implementation-approachスキルで実装戦略パターンと確認レベル定義(タスク分解で使用)
20
+ - implementation-approachスキルで実装戦略パターンと検証レベル定義(タスク分解で使用)
21
21
 
22
22
  ## 計画プロセス
23
23
 
@@ -26,6 +26,7 @@ Design Doc、UI Spec、PRD、ADR(提供されている場合)を読み込み
26
26
  - 受入条件と実装アプローチ
27
27
  - 技術的依存関係と実装順序
28
28
  - 統合ポイントとそのコントラクト
29
+ - **検証戦略**: 正しさの証明方法(正しさの定義、検証手法、検証タイミング)と早期検証ポイント(最初の検証対象、成功基準、失敗時の対応)
29
30
 
30
31
  ### 2. テスト設計情報の処理(提供時)
31
32
  テストスケルトンファイルを読み込み、メタ情報を抽出(テスト設計情報の処理セクションを参照)。
@@ -34,11 +35,15 @@ Design Doc、UI Spec、PRD、ADR(提供されている場合)を読み込み
34
35
  テストスケルトンが提供されている場合は戦略A(TDD)、そうでなければ戦略B(実装優先)を選択。実装戦略の選択セクションを参照。
35
36
 
36
37
  ### 4. フェーズの構成
37
- Design Docの技術的依存関係に基づいてフェーズを構成:
38
- - 依存が最も少ないタスクを前のフェーズに配置
38
+
39
+ **全アプローチ共通**:
40
+ - **検証戦略の要約を作業計画書ヘッダーに記載**(後続タスクへの参照用)
41
+ - 検証戦略の検証タイミングに対応するフェーズに検証タスクを配置
39
42
  - テストスケルトンが提供されている場合、統合テスト実装を対応するフェーズに配置し、E2Eテスト実行を最終フェーズに配置
40
43
  - テストスケルトンが提供されていない場合、Design Docの受入条件に基づくテスト実装タスクを含める
41
- - 最終フェーズに品質保証を含める
44
+ - 最終フェーズは常に品質保証
45
+
46
+ **フェーズ構成**: Design Docの実装アプローチに基づいて選択。詳細はdocumentation-criteriaスキルのフェーズ分割基準を参照。plan-templateのOption A(垂直)またはOption B(水平)に従う。ハイブリッドの場合はOption Aをベースに、必要に応じて水平基盤フェーズを追加する。
42
47
 
43
48
  ### 5. 完了条件付きタスクの定義
44
49
  各タスクについて、Design Docの受入条件から完了条件を導出。3要素の完了定義(実装完了、品質完了、統合完了)を適用。
@@ -53,7 +58,7 @@ documentation-criteriaスキルの計画テンプレートに従って作業計
53
58
  - **uiSpec**(オプション): UI Specificationのパス(フロントエンド/フルスタック機能)
54
59
  - **prd**(オプション): PRDドキュメントのパス
55
60
  - **adr**(オプション): ADRドキュメントのパス
56
- - **testSkeletons**(オプション): acceptance-test-generatorからの統合/E2Eテストスケルトンファイルパス
61
+ - **testSkeletons**(オプション): 統合/E2Eテストスケルトンファイルパス(コメントベースのテスト意図記述。実装済みテストではない)
57
62
  - **updateContext**(updateモード時のみ): 既存計画書のパス、変更理由
58
63
 
59
64
  ## 作業計画書出力形式
@@ -189,7 +194,7 @@ E2Eテストスケルトンが提供された場合、2段階で環境前提条
189
194
  - E2Eテスト: 「E2Eテスト実行」を最終Phaseに配置(実装は不要、実行のみ)
190
195
 
191
196
  ### 実装アプローチの適用
192
- Design Docで決定された実装アプローチと技術的依存関係に基づき、implementation-approachスキルの確認レベル(L1/L2/L3)に従ってタスクを分解する。
197
+ Design Docで決定された実装アプローチと技術的依存関係に基づき、implementation-approachスキルの検証レベル(L1/L2/L3)に従ってタスクを分解する。
193
198
 
194
199
  ### タスク依存の最小化ルール
195
200
  - 依存は最大2階層まで(A→B→Cは可、A→B→C→Dは再設計)
@@ -215,7 +220,9 @@ Design Docの技術的依存関係と実装アプローチに基づいてフェ
215
220
  ## 品質チェックリスト
216
221
 
217
222
  - [ ] Design Doc(複数時は各Doc)の整合性確認
218
- - [ ] 技術的依存関係に基づくフェーズ構成
223
+ - [ ] Design Docから検証戦略を抽出し計画書ヘッダーに記載
224
+ - [ ] フェーズ構成が実装アプローチと整合(垂直 → 価値単位フェーズ、水平 → レイヤーフェーズ)
225
+ - [ ] 早期検証ポイントをPhase 1に配置(検証戦略で指定されている場合)
219
226
  - [ ] 全要件のタスク化
220
227
  - [ ] 最終フェーズに品質保証の存在
221
228
  - [ ] テストスケルトンファイルパスを対応するフェーズに記載(提供時)
@@ -41,8 +41,8 @@ Target document → [Stop: Confirm changes]
41
41
  - Consistency verification with design-sync (Design Doc only)
42
42
 
43
43
  **NOT included**:
44
- - New requirement analysis (use /design for new documents)
45
- - Work planning or implementation (use /plan or /task after this command)
44
+ - New requirement analysis
45
+ - Work planning or implementation
46
46
 
47
47
  **Responsibility Boundary**: This command completes with updated document approval.
48
48
 
@@ -64,7 +64,7 @@ ls docs/design/*.md docs/prd/*.md docs/adr/*.md 2>/dev/null | grep -v template
64
64
  | $ARGUMENTS specifies a path | Use specified document |
65
65
  | $ARGUMENTS describes a topic | Search documents matching the topic |
66
66
  | Multiple candidates found | Present options with AskUserQuestion |
67
- | No documents found | Report and end (suggest /design instead) |
67
+ | No documents found | Report and end (document creation is out of scope) |
68
68
 
69
69
  ### Step 2: Document Type and Layer Determination
70
70
 
@@ -194,7 +194,7 @@ prompt: |
194
194
 
195
195
  | Error | Action |
196
196
  |-------|--------|
197
- | Target document not found | Report and end (suggest /design instead) |
197
+ | Target document not found | Report and end (document creation is out of scope) |
198
198
  | Sub-agent update fails | Log failure, present error to user, retry once |
199
199
  | Review rejects after 2 revisions | Stop loop, flag for human intervention |
200
200
  | design-sync detects conflicts | Present to user for resolution decision |