@k2works/claude-code-booster 3.2.1 → 3.3.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/lib/assets/docs/article/index.md +4 -1
- package/lib/assets/docs/article/practical-database-design/index.md +121 -0
- package/lib/assets/docs/article/practical-database-design/part1/chapter01.md +288 -0
- package/lib/assets/docs/article/practical-database-design/part1/chapter02.md +518 -0
- package/lib/assets/docs/article/practical-database-design/part1/chapter03.md +557 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter04.md +924 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter05.md +1627 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter06.md +2716 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter07.md +2082 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter08.md +2105 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter09.md +2031 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter10.md +1387 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter11.md +1677 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter12.md +1417 -0
- package/lib/assets/docs/article/practical-database-design/part2/chapter13.md +1434 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter14.md +667 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter15.md +1625 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter16.md +1915 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter17.md +1708 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter18.md +2095 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter19.md +1123 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter20.md +1031 -0
- package/lib/assets/docs/article/practical-database-design/part3/chapter21.md +1382 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter14-orm.md +991 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter15-orm.md +1300 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter16-orm.md +1166 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter17-orm.md +1584 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter18-orm.md +1183 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter19-orm.md +1016 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter20-orm.md +1753 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter21-orm.md +1447 -0
- package/lib/assets/docs/article/practical-database-design/part3-orm/chapter22-orm.md +1878 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter22.md +965 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter23.md +2069 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter24.md +2439 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter25.md +3661 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter26.md +2916 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter27.md +3105 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter28.md +2697 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter29.md +2544 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter30.md +2180 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter31.md +1192 -0
- package/lib/assets/docs/article/practical-database-design/part4/chapter32.md +2101 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter33.md +1032 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter34.md +1609 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter35.md +1453 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter36.md +1292 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter37.md +1470 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter38.md +1698 -0
- package/lib/assets/docs/article/practical-database-design/part5/chapter39.md +2334 -0
- package/lib/assets/docs/article/practical-database-design/study/study2-1.md +1693 -0
- package/lib/assets/docs/article/practical-database-design/study/study2-2.md +1347 -0
- package/lib/assets/docs/article/practical-database-design/study/study2-3.md +2044 -0
- package/lib/assets/docs/article/practical-database-design/study/study2-4.md +2229 -0
- package/lib/assets/docs/article/practical-database-design/study/study2-5.md +2418 -0
- package/lib/assets/docs/article/practical-database-design/study/study3-1.md +2205 -0
- package/lib/assets/docs/article/practical-database-design/study/study3-2.md +2221 -0
- package/lib/assets/docs/article/practical-database-design/study/study3-3.md +2253 -0
- package/lib/assets/docs/article/practical-database-design/study/study3-4.md +2106 -0
- package/lib/assets/docs/article/practical-database-design/study/study3-5.md +2507 -0
- package/lib/assets/docs/article/practical-database-design/study/study4-1.md +2587 -0
- package/lib/assets/docs/article/practical-database-design/study/study4-2.md +2075 -0
- package/lib/assets/docs/article/practical-database-design/study/study4-3.md +1805 -0
- package/lib/assets/docs/article/practical-database-design/study/study4-4.md +1895 -0
- package/lib/assets/docs/article/practical-database-design/study/study4-5.md +2878 -0
- package/package.json +1 -1
|
@@ -0,0 +1,2334 @@
|
|
|
1
|
+
# 第39章:データ連携の実装パターン
|
|
2
|
+
|
|
3
|
+
本章では、基幹業務システム間のデータ連携を実現するための具体的な実装パターンについて解説します。バッチ連携とリアルタイム連携の両方のアプローチを理解し、適切な連携テーブル設計とエラーハンドリングの方法を学びます。
|
|
4
|
+
|
|
5
|
+
---
|
|
6
|
+
|
|
7
|
+
## 39.1 バッチ連携
|
|
8
|
+
|
|
9
|
+
### バッチ連携の概要
|
|
10
|
+
|
|
11
|
+
バッチ連携は、定期的なスケジュールでまとめてデータを転送する方式です。大量データの処理や、リアルタイム性が不要な業務に適しています。
|
|
12
|
+
|
|
13
|
+
```plantuml
|
|
14
|
+
@startuml
|
|
15
|
+
title バッチ連携の基本構造
|
|
16
|
+
|
|
17
|
+
rectangle "ソースシステム" as source {
|
|
18
|
+
database "販売管理DB" as sales_db
|
|
19
|
+
}
|
|
20
|
+
|
|
21
|
+
rectangle "バッチ処理" as batch {
|
|
22
|
+
rectangle "抽出\n(Extract)" as extract
|
|
23
|
+
rectangle "変換\n(Transform)" as transform
|
|
24
|
+
rectangle "ロード\n(Load)" as load
|
|
25
|
+
}
|
|
26
|
+
|
|
27
|
+
rectangle "ターゲットシステム" as target {
|
|
28
|
+
database "財務会計DB" as accounting_db
|
|
29
|
+
}
|
|
30
|
+
|
|
31
|
+
file "中間ファイル" as staging_file
|
|
32
|
+
|
|
33
|
+
sales_db --> extract : 定期実行
|
|
34
|
+
extract --> staging_file : 出力
|
|
35
|
+
staging_file --> transform : 読込
|
|
36
|
+
transform --> load : 変換済データ
|
|
37
|
+
load --> accounting_db : 投入
|
|
38
|
+
|
|
39
|
+
note bottom of batch
|
|
40
|
+
【バッチ連携の特徴】
|
|
41
|
+
・大量データの一括処理に適する
|
|
42
|
+
・処理時間の予測が容易
|
|
43
|
+
・障害時のリカバリが比較的簡単
|
|
44
|
+
・リアルタイム性は犠牲になる
|
|
45
|
+
end note
|
|
46
|
+
|
|
47
|
+
@enduml
|
|
48
|
+
```
|
|
49
|
+
|
|
50
|
+
### ファイル連携(CSV / XML / JSON)
|
|
51
|
+
|
|
52
|
+
基幹業務システム間のデータ連携では、ファイル形式でのデータ交換が広く使われています。
|
|
53
|
+
|
|
54
|
+
#### ファイル形式の比較
|
|
55
|
+
|
|
56
|
+
| 形式 | 特徴 | 適用場面 | 注意点 |
|
|
57
|
+
|-----|-----|---------|-------|
|
|
58
|
+
| CSV | 軽量・シンプル | 定型データ、レガシー連携 | 文字コード、区切り文字 |
|
|
59
|
+
| XML | 構造化、スキーマ定義 | 複雑な階層データ | ファイルサイズ大 |
|
|
60
|
+
| JSON | 軽量・可読性高 | Web API 連携 | スキーマ検証が必要 |
|
|
61
|
+
| 固定長 | 高速処理 | 大量データ、メインフレーム | 柔軟性に欠ける |
|
|
62
|
+
|
|
63
|
+
#### ファイル連携の設計
|
|
64
|
+
|
|
65
|
+
```plantuml
|
|
66
|
+
@startuml
|
|
67
|
+
title ファイル連携のデータフロー
|
|
68
|
+
|
|
69
|
+
|ソースシステム|
|
|
70
|
+
start
|
|
71
|
+
:データ抽出クエリ実行;
|
|
72
|
+
:ファイル出力;
|
|
73
|
+
note right
|
|
74
|
+
・日付フォルダ作成
|
|
75
|
+
・連番ファイル名
|
|
76
|
+
・完了ファイル出力
|
|
77
|
+
end note
|
|
78
|
+
|
|
79
|
+
:ファイル転送;
|
|
80
|
+
|
|
81
|
+
|ターゲットシステム|
|
|
82
|
+
:ファイル受信確認;
|
|
83
|
+
note right
|
|
84
|
+
完了ファイル(.done)の
|
|
85
|
+
存在を確認してから処理開始
|
|
86
|
+
end note
|
|
87
|
+
|
|
88
|
+
:バリデーション;
|
|
89
|
+
if (検証OK?) then (yes)
|
|
90
|
+
:データ変換;
|
|
91
|
+
:データ投入;
|
|
92
|
+
:正常完了記録;
|
|
93
|
+
else (no)
|
|
94
|
+
:エラーファイル出力;
|
|
95
|
+
:アラート通知;
|
|
96
|
+
endif
|
|
97
|
+
|
|
98
|
+
stop
|
|
99
|
+
|
|
100
|
+
@enduml
|
|
101
|
+
```
|
|
102
|
+
|
|
103
|
+
<details>
|
|
104
|
+
<summary>Java 実装例 - CSV 出力</summary>
|
|
105
|
+
|
|
106
|
+
```java
|
|
107
|
+
// 売上データ CSV 出力サービス
|
|
108
|
+
@Service
|
|
109
|
+
public class SalesCsvExportService {
|
|
110
|
+
private final SalesRepository salesRepository;
|
|
111
|
+
private final FileStorageService fileStorage;
|
|
112
|
+
|
|
113
|
+
@Transactional(readOnly = true)
|
|
114
|
+
public ExportResult exportSalesData(LocalDate targetDate) {
|
|
115
|
+
// 出力ディレクトリ
|
|
116
|
+
String directory = String.format("sales/%s",
|
|
117
|
+
targetDate.format(DateTimeFormatter.ofPattern("yyyyMMdd")));
|
|
118
|
+
|
|
119
|
+
// データ取得
|
|
120
|
+
List<SalesData> salesList = salesRepository.findByDate(targetDate);
|
|
121
|
+
|
|
122
|
+
// CSV 出力
|
|
123
|
+
String fileName = String.format("sales_%s_%s.csv",
|
|
124
|
+
targetDate.format(DateTimeFormatter.ofPattern("yyyyMMdd")),
|
|
125
|
+
LocalDateTime.now().format(DateTimeFormatter.ofPattern("HHmmss")));
|
|
126
|
+
|
|
127
|
+
try (CsvWriter writer = new CsvWriter(
|
|
128
|
+
fileStorage.getOutputStream(directory, fileName),
|
|
129
|
+
StandardCharsets.UTF_8)) {
|
|
130
|
+
|
|
131
|
+
// ヘッダー出力
|
|
132
|
+
writer.writeHeader(
|
|
133
|
+
"売上番号", "売上日", "得意先コード", "得意先名",
|
|
134
|
+
"商品コード", "商品名", "数量", "単価", "金額", "消費税"
|
|
135
|
+
);
|
|
136
|
+
|
|
137
|
+
// データ出力
|
|
138
|
+
for (SalesData sales : salesList) {
|
|
139
|
+
writer.writeRow(
|
|
140
|
+
sales.getSalesNumber(),
|
|
141
|
+
sales.getSalesDate().toString(),
|
|
142
|
+
sales.getCustomerCode(),
|
|
143
|
+
sales.getCustomerName(),
|
|
144
|
+
sales.getProductCode(),
|
|
145
|
+
sales.getProductName(),
|
|
146
|
+
sales.getQuantity().toString(),
|
|
147
|
+
sales.getUnitPrice().toString(),
|
|
148
|
+
sales.getAmount().toString(),
|
|
149
|
+
sales.getTaxAmount().toString()
|
|
150
|
+
);
|
|
151
|
+
}
|
|
152
|
+
}
|
|
153
|
+
|
|
154
|
+
// 完了ファイル出力
|
|
155
|
+
String doneFileName = fileName.replace(".csv", ".done");
|
|
156
|
+
fileStorage.createEmptyFile(directory, doneFileName);
|
|
157
|
+
|
|
158
|
+
return new ExportResult(
|
|
159
|
+
fileName,
|
|
160
|
+
salesList.size(),
|
|
161
|
+
ExportStatus.SUCCESS
|
|
162
|
+
);
|
|
163
|
+
}
|
|
164
|
+
}
|
|
165
|
+
|
|
166
|
+
// CSV ライター
|
|
167
|
+
public class CsvWriter implements AutoCloseable {
|
|
168
|
+
private final BufferedWriter writer;
|
|
169
|
+
private final String delimiter = ",";
|
|
170
|
+
private final String lineEnding = "\r\n";
|
|
171
|
+
|
|
172
|
+
public CsvWriter(OutputStream outputStream, Charset charset) {
|
|
173
|
+
this.writer = new BufferedWriter(
|
|
174
|
+
new OutputStreamWriter(outputStream, charset)
|
|
175
|
+
);
|
|
176
|
+
}
|
|
177
|
+
|
|
178
|
+
public void writeHeader(String... columns) throws IOException {
|
|
179
|
+
writeLine(columns);
|
|
180
|
+
}
|
|
181
|
+
|
|
182
|
+
public void writeRow(String... values) throws IOException {
|
|
183
|
+
String[] escapedValues = Arrays.stream(values)
|
|
184
|
+
.map(this::escapeField)
|
|
185
|
+
.toArray(String[]::new);
|
|
186
|
+
writeLine(escapedValues);
|
|
187
|
+
}
|
|
188
|
+
|
|
189
|
+
private void writeLine(String[] fields) throws IOException {
|
|
190
|
+
writer.write(String.join(delimiter, fields));
|
|
191
|
+
writer.write(lineEnding);
|
|
192
|
+
}
|
|
193
|
+
|
|
194
|
+
private String escapeField(String field) {
|
|
195
|
+
if (field == null) return "";
|
|
196
|
+
if (field.contains(",") || field.contains("\"")
|
|
197
|
+
|| field.contains("\n")) {
|
|
198
|
+
return "\"" + field.replace("\"", "\"\"") + "\"";
|
|
199
|
+
}
|
|
200
|
+
return field;
|
|
201
|
+
}
|
|
202
|
+
|
|
203
|
+
@Override
|
|
204
|
+
public void close() throws IOException {
|
|
205
|
+
writer.close();
|
|
206
|
+
}
|
|
207
|
+
}
|
|
208
|
+
```
|
|
209
|
+
|
|
210
|
+
</details>
|
|
211
|
+
|
|
212
|
+
<details>
|
|
213
|
+
<summary>Java 実装例 - CSV 取込</summary>
|
|
214
|
+
|
|
215
|
+
```java
|
|
216
|
+
// 仕訳データ CSV 取込サービス
|
|
217
|
+
@Service
|
|
218
|
+
public class JournalCsvImportService {
|
|
219
|
+
private final JournalRepository journalRepository;
|
|
220
|
+
private final FileStorageService fileStorage;
|
|
221
|
+
private final ImportLogRepository importLogRepository;
|
|
222
|
+
|
|
223
|
+
@Transactional
|
|
224
|
+
public ImportResult importJournalData(String directory, String fileName) {
|
|
225
|
+
ImportLog log = ImportLog.start(fileName);
|
|
226
|
+
|
|
227
|
+
try {
|
|
228
|
+
// 完了ファイル確認
|
|
229
|
+
String doneFileName = fileName.replace(".csv", ".done");
|
|
230
|
+
if (!fileStorage.exists(directory, doneFileName)) {
|
|
231
|
+
throw new ImportException("完了ファイルが見つかりません: " + doneFileName);
|
|
232
|
+
}
|
|
233
|
+
|
|
234
|
+
// CSV 読込
|
|
235
|
+
List<JournalImportRow> rows = new ArrayList<>();
|
|
236
|
+
List<ImportError> errors = new ArrayList<>();
|
|
237
|
+
|
|
238
|
+
try (CsvReader reader = new CsvReader(
|
|
239
|
+
fileStorage.getInputStream(directory, fileName),
|
|
240
|
+
StandardCharsets.UTF_8)) {
|
|
241
|
+
|
|
242
|
+
int lineNumber = 1;
|
|
243
|
+
reader.skipHeader();
|
|
244
|
+
lineNumber++;
|
|
245
|
+
|
|
246
|
+
String[] line;
|
|
247
|
+
while ((line = reader.readLine()) != null) {
|
|
248
|
+
try {
|
|
249
|
+
JournalImportRow row = parseRow(line, lineNumber);
|
|
250
|
+
validateRow(row);
|
|
251
|
+
rows.add(row);
|
|
252
|
+
} catch (ValidationException e) {
|
|
253
|
+
errors.add(new ImportError(lineNumber, e.getMessage()));
|
|
254
|
+
}
|
|
255
|
+
lineNumber++;
|
|
256
|
+
}
|
|
257
|
+
}
|
|
258
|
+
|
|
259
|
+
// エラーがある場合は中断
|
|
260
|
+
if (!errors.isEmpty()) {
|
|
261
|
+
log.fail(errors);
|
|
262
|
+
importLogRepository.save(log);
|
|
263
|
+
return new ImportResult(ImportStatus.VALIDATION_ERROR, 0, errors);
|
|
264
|
+
}
|
|
265
|
+
|
|
266
|
+
// データ投入
|
|
267
|
+
int insertedCount = 0;
|
|
268
|
+
for (JournalImportRow row : rows) {
|
|
269
|
+
JournalEntry journal = convertToEntity(row);
|
|
270
|
+
journalRepository.save(journal);
|
|
271
|
+
insertedCount++;
|
|
272
|
+
}
|
|
273
|
+
|
|
274
|
+
log.success(insertedCount);
|
|
275
|
+
importLogRepository.save(log);
|
|
276
|
+
|
|
277
|
+
return new ImportResult(ImportStatus.SUCCESS, insertedCount, List.of());
|
|
278
|
+
|
|
279
|
+
} catch (Exception e) {
|
|
280
|
+
log.fail(e.getMessage());
|
|
281
|
+
importLogRepository.save(log);
|
|
282
|
+
throw new ImportException("取込処理でエラーが発生しました", e);
|
|
283
|
+
}
|
|
284
|
+
}
|
|
285
|
+
|
|
286
|
+
private JournalImportRow parseRow(String[] fields, int lineNumber) {
|
|
287
|
+
if (fields.length < 10) {
|
|
288
|
+
throw new ValidationException("フィールド数が不足しています");
|
|
289
|
+
}
|
|
290
|
+
return new JournalImportRow(
|
|
291
|
+
fields[0], // 伝票番号
|
|
292
|
+
LocalDate.parse(fields[1]), // 伝票日付
|
|
293
|
+
fields[2], // 借方勘定科目
|
|
294
|
+
fields[3], // 借方補助科目
|
|
295
|
+
new BigDecimal(fields[4]), // 借方金額
|
|
296
|
+
fields[5], // 貸方勘定科目
|
|
297
|
+
fields[6], // 貸方補助科目
|
|
298
|
+
new BigDecimal(fields[7]), // 貸方金額
|
|
299
|
+
fields[8], // 摘要
|
|
300
|
+
fields[9] // 部門コード
|
|
301
|
+
);
|
|
302
|
+
}
|
|
303
|
+
|
|
304
|
+
private void validateRow(JournalImportRow row) {
|
|
305
|
+
// 貸借一致チェック
|
|
306
|
+
if (row.debitAmount().compareTo(row.creditAmount()) != 0) {
|
|
307
|
+
throw new ValidationException("貸借金額が一致しません");
|
|
308
|
+
}
|
|
309
|
+
// その他のバリデーション...
|
|
310
|
+
}
|
|
311
|
+
}
|
|
312
|
+
```
|
|
313
|
+
|
|
314
|
+
</details>
|
|
315
|
+
|
|
316
|
+
### ETL 処理の設計
|
|
317
|
+
|
|
318
|
+
ETL(Extract-Transform-Load)は、データ連携の標準的なアプローチです。
|
|
319
|
+
|
|
320
|
+
```plantuml
|
|
321
|
+
@startuml
|
|
322
|
+
title ETL 処理の設計パターン
|
|
323
|
+
|
|
324
|
+
rectangle "Extract(抽出)" as extract {
|
|
325
|
+
rectangle "フル抽出" as full_extract
|
|
326
|
+
rectangle "差分抽出" as incremental_extract
|
|
327
|
+
rectangle "CDC 抽出" as cdc_extract
|
|
328
|
+
}
|
|
329
|
+
|
|
330
|
+
rectangle "Transform(変換)" as transform {
|
|
331
|
+
rectangle "データクレンジング" as cleansing
|
|
332
|
+
rectangle "コード変換" as code_mapping
|
|
333
|
+
rectangle "集計・計算" as aggregation
|
|
334
|
+
rectangle "データ結合" as join_data
|
|
335
|
+
}
|
|
336
|
+
|
|
337
|
+
rectangle "Load(ロード)" as load {
|
|
338
|
+
rectangle "フルリフレッシュ" as full_refresh
|
|
339
|
+
rectangle "インクリメンタル" as incremental_load
|
|
340
|
+
rectangle "Upsert" as upsert
|
|
341
|
+
}
|
|
342
|
+
|
|
343
|
+
full_extract --> cleansing
|
|
344
|
+
incremental_extract --> cleansing
|
|
345
|
+
cdc_extract --> cleansing
|
|
346
|
+
|
|
347
|
+
cleansing --> code_mapping
|
|
348
|
+
code_mapping --> aggregation
|
|
349
|
+
aggregation --> join_data
|
|
350
|
+
|
|
351
|
+
join_data --> full_refresh
|
|
352
|
+
join_data --> incremental_load
|
|
353
|
+
join_data --> upsert
|
|
354
|
+
|
|
355
|
+
note bottom of extract
|
|
356
|
+
【抽出方式の選択基準】
|
|
357
|
+
・フル抽出:データ量が少ない場合
|
|
358
|
+
・差分抽出:更新日時で判定可能な場合
|
|
359
|
+
・CDC:リアルタイム性が必要な場合
|
|
360
|
+
end note
|
|
361
|
+
|
|
362
|
+
@enduml
|
|
363
|
+
```
|
|
364
|
+
|
|
365
|
+
#### ETL ジョブ設計
|
|
366
|
+
|
|
367
|
+
```plantuml
|
|
368
|
+
@startuml
|
|
369
|
+
title ETL ジョブの実行フロー
|
|
370
|
+
|
|
371
|
+
|スケジューラ|
|
|
372
|
+
start
|
|
373
|
+
:ジョブ起動;
|
|
374
|
+
note right
|
|
375
|
+
毎日 AM 2:00
|
|
376
|
+
または手動起動
|
|
377
|
+
end note
|
|
378
|
+
|
|
379
|
+
|抽出フェーズ|
|
|
380
|
+
:前回実行日時取得;
|
|
381
|
+
:差分データ抽出;
|
|
382
|
+
|
|
383
|
+
if (データあり?) then (yes)
|
|
384
|
+
:ステージングテーブルに格納;
|
|
385
|
+
|
|
386
|
+
|変換フェーズ|
|
|
387
|
+
:データクレンジング;
|
|
388
|
+
note right
|
|
389
|
+
・NULL 値処理
|
|
390
|
+
・文字コード変換
|
|
391
|
+
・日付フォーマット統一
|
|
392
|
+
end note
|
|
393
|
+
|
|
394
|
+
:コード変換;
|
|
395
|
+
note right
|
|
396
|
+
・コードマッピングテーブル参照
|
|
397
|
+
・未定義コードはエラー
|
|
398
|
+
end note
|
|
399
|
+
|
|
400
|
+
:業務ルール適用;
|
|
401
|
+
note right
|
|
402
|
+
・消費税計算
|
|
403
|
+
・勘定科目判定
|
|
404
|
+
・部門配賦
|
|
405
|
+
end note
|
|
406
|
+
|
|
407
|
+
|ロードフェーズ|
|
|
408
|
+
:本番テーブルに投入;
|
|
409
|
+
:実行結果記録;
|
|
410
|
+
else (no)
|
|
411
|
+
:スキップ記録;
|
|
412
|
+
endif
|
|
413
|
+
|
|
414
|
+
|スケジューラ|
|
|
415
|
+
:完了通知;
|
|
416
|
+
|
|
417
|
+
stop
|
|
418
|
+
|
|
419
|
+
@enduml
|
|
420
|
+
```
|
|
421
|
+
|
|
422
|
+
<details>
|
|
423
|
+
<summary>Java 実装例 - ETL ジョブ</summary>
|
|
424
|
+
|
|
425
|
+
```java
|
|
426
|
+
// ETL ジョブ基底クラス
|
|
427
|
+
public abstract class EtlJob<S, T> {
|
|
428
|
+
protected final Logger log = LoggerFactory.getLogger(getClass());
|
|
429
|
+
|
|
430
|
+
public EtlJobResult execute(EtlJobContext context) {
|
|
431
|
+
EtlJobResult result = new EtlJobResult(getJobName());
|
|
432
|
+
result.start();
|
|
433
|
+
|
|
434
|
+
try {
|
|
435
|
+
// 抽出フェーズ
|
|
436
|
+
log.info("抽出フェーズ開始");
|
|
437
|
+
List<S> sourceData = extract(context);
|
|
438
|
+
result.setExtractedCount(sourceData.size());
|
|
439
|
+
log.info("抽出完了: {} 件", sourceData.size());
|
|
440
|
+
|
|
441
|
+
if (sourceData.isEmpty()) {
|
|
442
|
+
result.complete(EtlJobStatus.SKIPPED, "対象データなし");
|
|
443
|
+
return result;
|
|
444
|
+
}
|
|
445
|
+
|
|
446
|
+
// 変換フェーズ
|
|
447
|
+
log.info("変換フェーズ開始");
|
|
448
|
+
TransformResult<T> transformResult = transform(sourceData, context);
|
|
449
|
+
result.setTransformedCount(transformResult.successCount());
|
|
450
|
+
result.setErrorCount(transformResult.errorCount());
|
|
451
|
+
result.addErrors(transformResult.errors());
|
|
452
|
+
log.info("変換完了: 成功 {} 件, エラー {} 件",
|
|
453
|
+
transformResult.successCount(), transformResult.errorCount());
|
|
454
|
+
|
|
455
|
+
// エラー閾値チェック
|
|
456
|
+
if (exceedsErrorThreshold(transformResult, context)) {
|
|
457
|
+
result.complete(EtlJobStatus.FAILED, "エラー閾値超過");
|
|
458
|
+
return result;
|
|
459
|
+
}
|
|
460
|
+
|
|
461
|
+
// ロードフェーズ
|
|
462
|
+
log.info("ロードフェーズ開始");
|
|
463
|
+
int loadedCount = load(transformResult.data(), context);
|
|
464
|
+
result.setLoadedCount(loadedCount);
|
|
465
|
+
log.info("ロード完了: {} 件", loadedCount);
|
|
466
|
+
|
|
467
|
+
result.complete(EtlJobStatus.SUCCESS, null);
|
|
468
|
+
return result;
|
|
469
|
+
|
|
470
|
+
} catch (Exception e) {
|
|
471
|
+
log.error("ETL ジョブでエラー発生", e);
|
|
472
|
+
result.complete(EtlJobStatus.FAILED, e.getMessage());
|
|
473
|
+
return result;
|
|
474
|
+
}
|
|
475
|
+
}
|
|
476
|
+
|
|
477
|
+
protected abstract String getJobName();
|
|
478
|
+
protected abstract List<S> extract(EtlJobContext context);
|
|
479
|
+
protected abstract TransformResult<T> transform(List<S> data, EtlJobContext context);
|
|
480
|
+
protected abstract int load(List<T> data, EtlJobContext context);
|
|
481
|
+
|
|
482
|
+
private boolean exceedsErrorThreshold(
|
|
483
|
+
TransformResult<T> result, EtlJobContext context) {
|
|
484
|
+
double errorRate = (double) result.errorCount()
|
|
485
|
+
/ (result.successCount() + result.errorCount());
|
|
486
|
+
return errorRate > context.getErrorThreshold();
|
|
487
|
+
}
|
|
488
|
+
}
|
|
489
|
+
|
|
490
|
+
// 売上→仕訳 ETL ジョブ
|
|
491
|
+
@Component
|
|
492
|
+
public class SalesToJournalEtlJob extends EtlJob<SalesData, JournalEntry> {
|
|
493
|
+
private final SalesRepository salesRepository;
|
|
494
|
+
private final JournalRepository journalRepository;
|
|
495
|
+
private final JournalPatternService patternService;
|
|
496
|
+
|
|
497
|
+
@Override
|
|
498
|
+
protected String getJobName() {
|
|
499
|
+
return "売上仕訳連携";
|
|
500
|
+
}
|
|
501
|
+
|
|
502
|
+
@Override
|
|
503
|
+
protected List<SalesData> extract(EtlJobContext context) {
|
|
504
|
+
LocalDateTime lastRunTime = context.getLastRunTime();
|
|
505
|
+
LocalDateTime currentTime = context.getCurrentTime();
|
|
506
|
+
|
|
507
|
+
return salesRepository.findByUpdatedAtBetween(lastRunTime, currentTime);
|
|
508
|
+
}
|
|
509
|
+
|
|
510
|
+
@Override
|
|
511
|
+
protected TransformResult<JournalEntry> transform(
|
|
512
|
+
List<SalesData> salesList, EtlJobContext context) {
|
|
513
|
+
|
|
514
|
+
List<JournalEntry> journals = new ArrayList<>();
|
|
515
|
+
List<TransformError> errors = new ArrayList<>();
|
|
516
|
+
|
|
517
|
+
for (SalesData sales : salesList) {
|
|
518
|
+
try {
|
|
519
|
+
// 自動仕訳パターン取得
|
|
520
|
+
JournalPattern pattern = patternService.findPattern(
|
|
521
|
+
sales.getProductGroup(),
|
|
522
|
+
sales.getCustomerGroup()
|
|
523
|
+
);
|
|
524
|
+
|
|
525
|
+
if (pattern == null) {
|
|
526
|
+
errors.add(new TransformError(
|
|
527
|
+
sales.getSalesNumber(),
|
|
528
|
+
"仕訳パターンが見つかりません"
|
|
529
|
+
));
|
|
530
|
+
continue;
|
|
531
|
+
}
|
|
532
|
+
|
|
533
|
+
// 仕訳生成
|
|
534
|
+
JournalEntry journal = createJournal(sales, pattern);
|
|
535
|
+
journals.add(journal);
|
|
536
|
+
|
|
537
|
+
} catch (Exception e) {
|
|
538
|
+
errors.add(new TransformError(
|
|
539
|
+
sales.getSalesNumber(),
|
|
540
|
+
e.getMessage()
|
|
541
|
+
));
|
|
542
|
+
}
|
|
543
|
+
}
|
|
544
|
+
|
|
545
|
+
return new TransformResult<>(journals, journals.size(), errors.size(), errors);
|
|
546
|
+
}
|
|
547
|
+
|
|
548
|
+
@Override
|
|
549
|
+
@Transactional
|
|
550
|
+
protected int load(List<JournalEntry> journals, EtlJobContext context) {
|
|
551
|
+
int count = 0;
|
|
552
|
+
for (JournalEntry journal : journals) {
|
|
553
|
+
journalRepository.save(journal);
|
|
554
|
+
count++;
|
|
555
|
+
}
|
|
556
|
+
return count;
|
|
557
|
+
}
|
|
558
|
+
|
|
559
|
+
private JournalEntry createJournal(SalesData sales, JournalPattern pattern) {
|
|
560
|
+
return JournalEntry.builder()
|
|
561
|
+
.journalDate(sales.getSalesDate())
|
|
562
|
+
.debitAccountCode(pattern.getDebitAccountCode())
|
|
563
|
+
.debitAmount(sales.getAmount())
|
|
564
|
+
.creditAccountCode(pattern.getCreditAccountCode())
|
|
565
|
+
.creditAmount(sales.getAmount())
|
|
566
|
+
.description("売上計上: " + sales.getSalesNumber())
|
|
567
|
+
.sourceType("SALES")
|
|
568
|
+
.sourceId(sales.getSalesNumber())
|
|
569
|
+
.build();
|
|
570
|
+
}
|
|
571
|
+
}
|
|
572
|
+
```
|
|
573
|
+
|
|
574
|
+
</details>
|
|
575
|
+
|
|
576
|
+
### 差分抽出と全件抽出
|
|
577
|
+
|
|
578
|
+
```plantuml
|
|
579
|
+
@startuml
|
|
580
|
+
title 差分抽出と全件抽出の比較
|
|
581
|
+
|
|
582
|
+
rectangle "全件抽出" as full {
|
|
583
|
+
note right
|
|
584
|
+
【処理内容】
|
|
585
|
+
・ソーステーブルの全データを抽出
|
|
586
|
+
・ターゲットを全件削除後に投入
|
|
587
|
+
|
|
588
|
+
【メリット】
|
|
589
|
+
・実装がシンプル
|
|
590
|
+
・データ不整合が起きにくい
|
|
591
|
+
|
|
592
|
+
【デメリット】
|
|
593
|
+
・処理時間が長い
|
|
594
|
+
・リソース消費が大きい
|
|
595
|
+
|
|
596
|
+
【適用場面】
|
|
597
|
+
・マスタデータ
|
|
598
|
+
・データ量が少ない場合
|
|
599
|
+
・日次全件洗い替え
|
|
600
|
+
end note
|
|
601
|
+
}
|
|
602
|
+
|
|
603
|
+
rectangle "差分抽出" as incremental {
|
|
604
|
+
note right
|
|
605
|
+
【処理内容】
|
|
606
|
+
・更新日時 > 前回実行日時 で抽出
|
|
607
|
+
・差分のみ INSERT/UPDATE
|
|
608
|
+
|
|
609
|
+
【メリット】
|
|
610
|
+
・処理時間が短い
|
|
611
|
+
・リソース効率が良い
|
|
612
|
+
|
|
613
|
+
【デメリット】
|
|
614
|
+
・削除データの検知が困難
|
|
615
|
+
・更新日時の管理が必要
|
|
616
|
+
|
|
617
|
+
【適用場面】
|
|
618
|
+
・トランザクションデータ
|
|
619
|
+
・大量データ
|
|
620
|
+
・高頻度実行
|
|
621
|
+
end note
|
|
622
|
+
}
|
|
623
|
+
|
|
624
|
+
@enduml
|
|
625
|
+
```
|
|
626
|
+
|
|
627
|
+
#### 差分抽出の実装パターン
|
|
628
|
+
|
|
629
|
+
```plantuml
|
|
630
|
+
@startuml
|
|
631
|
+
title 差分抽出のパターン
|
|
632
|
+
|
|
633
|
+
rectangle "タイムスタンプ方式" as timestamp {
|
|
634
|
+
note right
|
|
635
|
+
WHERE 更新日時 > :前回実行日時
|
|
636
|
+
|
|
637
|
+
【前提条件】
|
|
638
|
+
・全テーブルに更新日時カラム
|
|
639
|
+
・更新時に自動更新される仕組み
|
|
640
|
+
end note
|
|
641
|
+
}
|
|
642
|
+
|
|
643
|
+
rectangle "トリガー方式" as trigger {
|
|
644
|
+
note right
|
|
645
|
+
変更を変更ログテーブルに記録
|
|
646
|
+
連携後にログを削除
|
|
647
|
+
|
|
648
|
+
【前提条件】
|
|
649
|
+
・各テーブルにトリガー設定
|
|
650
|
+
・変更ログテーブルの管理
|
|
651
|
+
end note
|
|
652
|
+
}
|
|
653
|
+
|
|
654
|
+
rectangle "シーケンス方式" as sequence {
|
|
655
|
+
note right
|
|
656
|
+
WHERE ID > :前回最大ID
|
|
657
|
+
|
|
658
|
+
【前提条件】
|
|
659
|
+
・単調増加の ID カラム
|
|
660
|
+
・UPDATE はなく INSERT のみ
|
|
661
|
+
end note
|
|
662
|
+
}
|
|
663
|
+
|
|
664
|
+
rectangle "CDC 方式" as cdc {
|
|
665
|
+
note right
|
|
666
|
+
トランザクションログから
|
|
667
|
+
変更を検知
|
|
668
|
+
|
|
669
|
+
【前提条件】
|
|
670
|
+
・CDC ツール(Debezium等)
|
|
671
|
+
・リアルタイム処理基盤
|
|
672
|
+
end note
|
|
673
|
+
}
|
|
674
|
+
|
|
675
|
+
@enduml
|
|
676
|
+
```
|
|
677
|
+
|
|
678
|
+
<details>
|
|
679
|
+
<summary>Java 実装例 - 差分抽出</summary>
|
|
680
|
+
|
|
681
|
+
```java
|
|
682
|
+
// 差分抽出サービス
|
|
683
|
+
@Service
|
|
684
|
+
public class IncrementalExtractService {
|
|
685
|
+
private final JdbcTemplate jdbcTemplate;
|
|
686
|
+
private final ExtractCheckpointRepository checkpointRepository;
|
|
687
|
+
|
|
688
|
+
/**
|
|
689
|
+
* タイムスタンプ方式による差分抽出
|
|
690
|
+
*/
|
|
691
|
+
public <T> List<T> extractByTimestamp(
|
|
692
|
+
String tableName,
|
|
693
|
+
String timestampColumn,
|
|
694
|
+
RowMapper<T> rowMapper) {
|
|
695
|
+
|
|
696
|
+
// 前回実行日時取得
|
|
697
|
+
ExtractCheckpoint checkpoint = checkpointRepository
|
|
698
|
+
.findByTableName(tableName)
|
|
699
|
+
.orElse(new ExtractCheckpoint(tableName, LocalDateTime.MIN));
|
|
700
|
+
|
|
701
|
+
LocalDateTime lastExtractTime = checkpoint.getLastExtractTime();
|
|
702
|
+
LocalDateTime currentTime = LocalDateTime.now();
|
|
703
|
+
|
|
704
|
+
// 差分抽出
|
|
705
|
+
String sql = String.format(
|
|
706
|
+
"SELECT * FROM %s WHERE %s > ? AND %s <= ? ORDER BY %s",
|
|
707
|
+
tableName, timestampColumn, timestampColumn, timestampColumn
|
|
708
|
+
);
|
|
709
|
+
|
|
710
|
+
List<T> result = jdbcTemplate.query(sql, rowMapper,
|
|
711
|
+
lastExtractTime, currentTime);
|
|
712
|
+
|
|
713
|
+
// チェックポイント更新
|
|
714
|
+
checkpoint.setLastExtractTime(currentTime);
|
|
715
|
+
checkpointRepository.save(checkpoint);
|
|
716
|
+
|
|
717
|
+
return result;
|
|
718
|
+
}
|
|
719
|
+
|
|
720
|
+
/**
|
|
721
|
+
* シーケンス方式による差分抽出
|
|
722
|
+
*/
|
|
723
|
+
public <T> List<T> extractBySequence(
|
|
724
|
+
String tableName,
|
|
725
|
+
String sequenceColumn,
|
|
726
|
+
RowMapper<T> rowMapper) {
|
|
727
|
+
|
|
728
|
+
ExtractCheckpoint checkpoint = checkpointRepository
|
|
729
|
+
.findByTableName(tableName)
|
|
730
|
+
.orElse(new ExtractCheckpoint(tableName, 0L));
|
|
731
|
+
|
|
732
|
+
Long lastSequence = checkpoint.getLastSequence();
|
|
733
|
+
|
|
734
|
+
// 差分抽出
|
|
735
|
+
String sql = String.format(
|
|
736
|
+
"SELECT * FROM %s WHERE %s > ? ORDER BY %s",
|
|
737
|
+
tableName, sequenceColumn, sequenceColumn
|
|
738
|
+
);
|
|
739
|
+
|
|
740
|
+
List<T> result = jdbcTemplate.query(sql, rowMapper, lastSequence);
|
|
741
|
+
|
|
742
|
+
// 最大シーケンス取得と更新
|
|
743
|
+
if (!result.isEmpty()) {
|
|
744
|
+
Long maxSequence = jdbcTemplate.queryForObject(
|
|
745
|
+
String.format("SELECT MAX(%s) FROM %s WHERE %s > ?",
|
|
746
|
+
sequenceColumn, tableName, sequenceColumn),
|
|
747
|
+
Long.class, lastSequence
|
|
748
|
+
);
|
|
749
|
+
checkpoint.setLastSequence(maxSequence);
|
|
750
|
+
checkpointRepository.save(checkpoint);
|
|
751
|
+
}
|
|
752
|
+
|
|
753
|
+
return result;
|
|
754
|
+
}
|
|
755
|
+
|
|
756
|
+
/**
|
|
757
|
+
* 削除データの検知(論理削除方式)
|
|
758
|
+
*/
|
|
759
|
+
public List<String> extractDeletedIds(
|
|
760
|
+
String tableName,
|
|
761
|
+
String idColumn,
|
|
762
|
+
String deleteFlagColumn) {
|
|
763
|
+
|
|
764
|
+
ExtractCheckpoint checkpoint = checkpointRepository
|
|
765
|
+
.findByTableName(tableName + "_DELETE")
|
|
766
|
+
.orElse(new ExtractCheckpoint(tableName + "_DELETE", LocalDateTime.MIN));
|
|
767
|
+
|
|
768
|
+
String sql = String.format(
|
|
769
|
+
"SELECT %s FROM %s WHERE %s = true AND 更新日時 > ?",
|
|
770
|
+
idColumn, tableName, deleteFlagColumn
|
|
771
|
+
);
|
|
772
|
+
|
|
773
|
+
List<String> deletedIds = jdbcTemplate.queryForList(
|
|
774
|
+
sql, String.class, checkpoint.getLastExtractTime()
|
|
775
|
+
);
|
|
776
|
+
|
|
777
|
+
checkpoint.setLastExtractTime(LocalDateTime.now());
|
|
778
|
+
checkpointRepository.save(checkpoint);
|
|
779
|
+
|
|
780
|
+
return deletedIds;
|
|
781
|
+
}
|
|
782
|
+
}
|
|
783
|
+
|
|
784
|
+
// 抽出チェックポイント
|
|
785
|
+
@Entity
|
|
786
|
+
@Table(name = "抽出チェックポイント")
|
|
787
|
+
public class ExtractCheckpoint {
|
|
788
|
+
@Id
|
|
789
|
+
private String tableName;
|
|
790
|
+
private LocalDateTime lastExtractTime;
|
|
791
|
+
private Long lastSequence;
|
|
792
|
+
|
|
793
|
+
public ExtractCheckpoint(String tableName, LocalDateTime lastExtractTime) {
|
|
794
|
+
this.tableName = tableName;
|
|
795
|
+
this.lastExtractTime = lastExtractTime;
|
|
796
|
+
}
|
|
797
|
+
|
|
798
|
+
public ExtractCheckpoint(String tableName, Long lastSequence) {
|
|
799
|
+
this.tableName = tableName;
|
|
800
|
+
this.lastSequence = lastSequence;
|
|
801
|
+
}
|
|
802
|
+
|
|
803
|
+
// getters, setters...
|
|
804
|
+
}
|
|
805
|
+
```
|
|
806
|
+
|
|
807
|
+
</details>
|
|
808
|
+
|
|
809
|
+
---
|
|
810
|
+
|
|
811
|
+
## 39.2 リアルタイム連携
|
|
812
|
+
|
|
813
|
+
### Change Data Capture(CDC)
|
|
814
|
+
|
|
815
|
+
CDC は、データベースの変更をリアルタイムで検知し、他システムに伝播するパターンです。
|
|
816
|
+
|
|
817
|
+
```plantuml
|
|
818
|
+
@startuml
|
|
819
|
+
title Change Data Capture の仕組み
|
|
820
|
+
|
|
821
|
+
rectangle "ソースDB" as source {
|
|
822
|
+
database "販売管理" as sales_db
|
|
823
|
+
file "トランザクション\nログ" as tx_log
|
|
824
|
+
}
|
|
825
|
+
|
|
826
|
+
rectangle "CDC プラットフォーム" as cdc {
|
|
827
|
+
rectangle "Debezium\nConnector" as connector
|
|
828
|
+
queue "Kafka" as kafka
|
|
829
|
+
}
|
|
830
|
+
|
|
831
|
+
rectangle "ターゲットシステム" as targets {
|
|
832
|
+
database "財務会計" as accounting
|
|
833
|
+
database "分析DB" as analytics
|
|
834
|
+
rectangle "通知サービス" as notification
|
|
835
|
+
}
|
|
836
|
+
|
|
837
|
+
sales_db --> tx_log : WAL/Binlog
|
|
838
|
+
tx_log --> connector : 変更検知
|
|
839
|
+
connector --> kafka : イベント発行
|
|
840
|
+
kafka --> accounting : 消費
|
|
841
|
+
kafka --> analytics : 消費
|
|
842
|
+
kafka --> notification : 消費
|
|
843
|
+
|
|
844
|
+
note bottom of connector
|
|
845
|
+
【CDC の仕組み】
|
|
846
|
+
・データベースのトランザクションログを監視
|
|
847
|
+
・INSERT/UPDATE/DELETE を検知
|
|
848
|
+
・変更内容をイベントとして発行
|
|
849
|
+
end note
|
|
850
|
+
|
|
851
|
+
@enduml
|
|
852
|
+
```
|
|
853
|
+
|
|
854
|
+
#### CDC イベントの構造
|
|
855
|
+
|
|
856
|
+
```plantuml
|
|
857
|
+
@startuml
|
|
858
|
+
title CDC イベントの構造
|
|
859
|
+
|
|
860
|
+
class "CDC イベント" as cdc_event {
|
|
861
|
+
+source: SourceInfo
|
|
862
|
+
+operation: String
|
|
863
|
+
+timestamp: Long
|
|
864
|
+
+before: Record
|
|
865
|
+
+after: Record
|
|
866
|
+
}
|
|
867
|
+
|
|
868
|
+
class "SourceInfo" as source_info {
|
|
869
|
+
+connector: String
|
|
870
|
+
+database: String
|
|
871
|
+
+schema: String
|
|
872
|
+
+table: String
|
|
873
|
+
+txId: Long
|
|
874
|
+
+lsn: Long
|
|
875
|
+
}
|
|
876
|
+
|
|
877
|
+
note right of cdc_event
|
|
878
|
+
【operation の値】
|
|
879
|
+
・c: CREATE(INSERT)
|
|
880
|
+
・u: UPDATE
|
|
881
|
+
・d: DELETE
|
|
882
|
+
・r: READ(スナップショット)
|
|
883
|
+
|
|
884
|
+
【before/after】
|
|
885
|
+
・INSERT: before=null, after=新データ
|
|
886
|
+
・UPDATE: before=旧データ, after=新データ
|
|
887
|
+
・DELETE: before=旧データ, after=null
|
|
888
|
+
end note
|
|
889
|
+
|
|
890
|
+
cdc_event --> source_info
|
|
891
|
+
|
|
892
|
+
@enduml
|
|
893
|
+
```
|
|
894
|
+
|
|
895
|
+
<details>
|
|
896
|
+
<summary>Java 実装例 - CDC コンシューマー</summary>
|
|
897
|
+
|
|
898
|
+
```java
|
|
899
|
+
// CDC イベントコンシューマー
|
|
900
|
+
@Component
|
|
901
|
+
public class SalesCdcConsumer {
|
|
902
|
+
private final ObjectMapper objectMapper;
|
|
903
|
+
private final JournalSyncService journalSyncService;
|
|
904
|
+
|
|
905
|
+
@KafkaListener(topics = "sales.public.売上")
|
|
906
|
+
public void consume(String message) {
|
|
907
|
+
try {
|
|
908
|
+
CdcEvent event = objectMapper.readValue(message, CdcEvent.class);
|
|
909
|
+
|
|
910
|
+
switch (event.getOperation()) {
|
|
911
|
+
case "c" -> handleInsert(event.getAfter());
|
|
912
|
+
case "u" -> handleUpdate(event.getBefore(), event.getAfter());
|
|
913
|
+
case "d" -> handleDelete(event.getBefore());
|
|
914
|
+
default -> log.warn("Unknown operation: {}", event.getOperation());
|
|
915
|
+
}
|
|
916
|
+
|
|
917
|
+
} catch (Exception e) {
|
|
918
|
+
log.error("CDC イベント処理エラー", e);
|
|
919
|
+
throw new CdcProcessingException(e);
|
|
920
|
+
}
|
|
921
|
+
}
|
|
922
|
+
|
|
923
|
+
private void handleInsert(JsonNode after) {
|
|
924
|
+
SalesData sales = objectMapper.convertValue(after, SalesData.class);
|
|
925
|
+
journalSyncService.createJournalFromSales(sales);
|
|
926
|
+
}
|
|
927
|
+
|
|
928
|
+
private void handleUpdate(JsonNode before, JsonNode after) {
|
|
929
|
+
SalesData oldSales = objectMapper.convertValue(before, SalesData.class);
|
|
930
|
+
SalesData newSales = objectMapper.convertValue(after, SalesData.class);
|
|
931
|
+
|
|
932
|
+
// 赤黒処理で訂正
|
|
933
|
+
journalSyncService.reverseJournal(oldSales);
|
|
934
|
+
journalSyncService.createJournalFromSales(newSales);
|
|
935
|
+
}
|
|
936
|
+
|
|
937
|
+
private void handleDelete(JsonNode before) {
|
|
938
|
+
SalesData sales = objectMapper.convertValue(before, SalesData.class);
|
|
939
|
+
journalSyncService.reverseJournal(sales);
|
|
940
|
+
}
|
|
941
|
+
}
|
|
942
|
+
|
|
943
|
+
// CDC イベント
|
|
944
|
+
@Data
|
|
945
|
+
public class CdcEvent {
|
|
946
|
+
private SourceInfo source;
|
|
947
|
+
private String operation; // c, u, d, r
|
|
948
|
+
private Long tsMs;
|
|
949
|
+
private JsonNode before;
|
|
950
|
+
private JsonNode after;
|
|
951
|
+
}
|
|
952
|
+
|
|
953
|
+
@Data
|
|
954
|
+
public class SourceInfo {
|
|
955
|
+
private String connector;
|
|
956
|
+
private String db;
|
|
957
|
+
private String schema;
|
|
958
|
+
private String table;
|
|
959
|
+
private Long txId;
|
|
960
|
+
private Long lsn;
|
|
961
|
+
}
|
|
962
|
+
```
|
|
963
|
+
|
|
964
|
+
</details>
|
|
965
|
+
|
|
966
|
+
### データベーストリガーの活用
|
|
967
|
+
|
|
968
|
+
トリガーを使用した変更検知は、CDC ツールなしでも実装できるシンプルな方式です。
|
|
969
|
+
|
|
970
|
+
```plantuml
|
|
971
|
+
@startuml
|
|
972
|
+
title トリガーによる変更検知
|
|
973
|
+
|
|
974
|
+
database "ソースDB" as source {
|
|
975
|
+
entity "売上テーブル" as sales
|
|
976
|
+
entity "変更ログ" as change_log
|
|
977
|
+
}
|
|
978
|
+
|
|
979
|
+
rectangle "トリガー" as trigger {
|
|
980
|
+
rectangle "INSERT トリガー" as insert_trigger
|
|
981
|
+
rectangle "UPDATE トリガー" as update_trigger
|
|
982
|
+
rectangle "DELETE トリガー" as delete_trigger
|
|
983
|
+
}
|
|
984
|
+
|
|
985
|
+
rectangle "連携バッチ" as batch {
|
|
986
|
+
rectangle "変更ログ読込" as read_log
|
|
987
|
+
rectangle "ターゲット更新" as update_target
|
|
988
|
+
rectangle "ログ削除" as delete_log
|
|
989
|
+
}
|
|
990
|
+
|
|
991
|
+
database "ターゲットDB" as target
|
|
992
|
+
|
|
993
|
+
sales --> insert_trigger : INSERT
|
|
994
|
+
sales --> update_trigger : UPDATE
|
|
995
|
+
sales --> delete_trigger : DELETE
|
|
996
|
+
|
|
997
|
+
insert_trigger --> change_log : 記録
|
|
998
|
+
update_trigger --> change_log : 記録
|
|
999
|
+
delete_trigger --> change_log : 記録
|
|
1000
|
+
|
|
1001
|
+
change_log --> read_log : 定期実行
|
|
1002
|
+
read_log --> update_target
|
|
1003
|
+
update_target --> target
|
|
1004
|
+
update_target --> delete_log
|
|
1005
|
+
|
|
1006
|
+
note bottom of trigger
|
|
1007
|
+
【トリガー方式のメリット】
|
|
1008
|
+
・追加ツール不要
|
|
1009
|
+
・確実に変更を捕捉
|
|
1010
|
+
|
|
1011
|
+
【デメリット】
|
|
1012
|
+
・パフォーマンスへの影響
|
|
1013
|
+
・トリガーの管理が煩雑
|
|
1014
|
+
end note
|
|
1015
|
+
|
|
1016
|
+
@enduml
|
|
1017
|
+
```
|
|
1018
|
+
|
|
1019
|
+
<details>
|
|
1020
|
+
<summary>SQL 定義 - 変更ログトリガー</summary>
|
|
1021
|
+
|
|
1022
|
+
```sql
|
|
1023
|
+
-- 変更ログテーブル
|
|
1024
|
+
CREATE TABLE 変更ログ (
|
|
1025
|
+
ログID SERIAL PRIMARY KEY,
|
|
1026
|
+
テーブル名 VARCHAR(100) NOT NULL,
|
|
1027
|
+
操作種別 VARCHAR(10) NOT NULL, -- INSERT, UPDATE, DELETE
|
|
1028
|
+
レコードID VARCHAR(100) NOT NULL,
|
|
1029
|
+
変更前データ JSONB,
|
|
1030
|
+
変更後データ JSONB,
|
|
1031
|
+
変更日時 TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
|
|
1032
|
+
処理済フラグ BOOLEAN DEFAULT FALSE,
|
|
1033
|
+
処理日時 TIMESTAMP
|
|
1034
|
+
);
|
|
1035
|
+
|
|
1036
|
+
CREATE INDEX idx_変更ログ_未処理 ON 変更ログ (処理済フラグ, 変更日時)
|
|
1037
|
+
WHERE 処理済フラグ = FALSE;
|
|
1038
|
+
|
|
1039
|
+
-- 売上テーブル用トリガー関数
|
|
1040
|
+
CREATE OR REPLACE FUNCTION fn_売上変更ログ()
|
|
1041
|
+
RETURNS TRIGGER AS $$
|
|
1042
|
+
BEGIN
|
|
1043
|
+
IF TG_OP = 'INSERT' THEN
|
|
1044
|
+
INSERT INTO 変更ログ (テーブル名, 操作種別, レコードID, 変更後データ)
|
|
1045
|
+
VALUES ('売上', 'INSERT', NEW.売上番号, row_to_json(NEW)::JSONB);
|
|
1046
|
+
RETURN NEW;
|
|
1047
|
+
|
|
1048
|
+
ELSIF TG_OP = 'UPDATE' THEN
|
|
1049
|
+
INSERT INTO 変更ログ (テーブル名, 操作種別, レコードID, 変更前データ, 変更後データ)
|
|
1050
|
+
VALUES ('売上', 'UPDATE', NEW.売上番号,
|
|
1051
|
+
row_to_json(OLD)::JSONB, row_to_json(NEW)::JSONB);
|
|
1052
|
+
RETURN NEW;
|
|
1053
|
+
|
|
1054
|
+
ELSIF TG_OP = 'DELETE' THEN
|
|
1055
|
+
INSERT INTO 変更ログ (テーブル名, 操作種別, レコードID, 変更前データ)
|
|
1056
|
+
VALUES ('売上', 'DELETE', OLD.売上番号, row_to_json(OLD)::JSONB);
|
|
1057
|
+
RETURN OLD;
|
|
1058
|
+
END IF;
|
|
1059
|
+
END;
|
|
1060
|
+
$$ LANGUAGE plpgsql;
|
|
1061
|
+
|
|
1062
|
+
-- トリガー設定
|
|
1063
|
+
CREATE TRIGGER trg_売上変更ログ
|
|
1064
|
+
AFTER INSERT OR UPDATE OR DELETE ON 売上
|
|
1065
|
+
FOR EACH ROW EXECUTE FUNCTION fn_売上変更ログ();
|
|
1066
|
+
```
|
|
1067
|
+
|
|
1068
|
+
</details>
|
|
1069
|
+
|
|
1070
|
+
<details>
|
|
1071
|
+
<summary>Java 実装例 - 変更ログ処理</summary>
|
|
1072
|
+
|
|
1073
|
+
```java
|
|
1074
|
+
// 変更ログ処理サービス
|
|
1075
|
+
@Service
|
|
1076
|
+
public class ChangeLogProcessingService {
|
|
1077
|
+
private final JdbcTemplate jdbcTemplate;
|
|
1078
|
+
private final Map<String, ChangeLogHandler> handlers;
|
|
1079
|
+
|
|
1080
|
+
@Scheduled(fixedDelay = 5000) // 5秒ごと
|
|
1081
|
+
@Transactional
|
|
1082
|
+
public void processChangeLogs() {
|
|
1083
|
+
// 未処理ログを取得(ロック付き)
|
|
1084
|
+
String selectSql = """
|
|
1085
|
+
SELECT ログID, テーブル名, 操作種別, レコードID, 変更前データ, 変更後データ
|
|
1086
|
+
FROM 変更ログ
|
|
1087
|
+
WHERE 処理済フラグ = FALSE
|
|
1088
|
+
ORDER BY 変更日時
|
|
1089
|
+
LIMIT 100
|
|
1090
|
+
FOR UPDATE SKIP LOCKED
|
|
1091
|
+
""";
|
|
1092
|
+
|
|
1093
|
+
List<ChangeLog> logs = jdbcTemplate.query(selectSql,
|
|
1094
|
+
(rs, rowNum) -> new ChangeLog(
|
|
1095
|
+
rs.getLong("ログID"),
|
|
1096
|
+
rs.getString("テーブル名"),
|
|
1097
|
+
rs.getString("操作種別"),
|
|
1098
|
+
rs.getString("レコードID"),
|
|
1099
|
+
rs.getString("変更前データ"),
|
|
1100
|
+
rs.getString("変更後データ")
|
|
1101
|
+
)
|
|
1102
|
+
);
|
|
1103
|
+
|
|
1104
|
+
for (ChangeLog log : logs) {
|
|
1105
|
+
try {
|
|
1106
|
+
// テーブル別ハンドラーで処理
|
|
1107
|
+
ChangeLogHandler handler = handlers.get(log.tableName());
|
|
1108
|
+
if (handler != null) {
|
|
1109
|
+
handler.handle(log);
|
|
1110
|
+
}
|
|
1111
|
+
|
|
1112
|
+
// 処理済みマーク
|
|
1113
|
+
markAsProcessed(log.logId());
|
|
1114
|
+
|
|
1115
|
+
} catch (Exception e) {
|
|
1116
|
+
// エラーログ記録(処理は継続)
|
|
1117
|
+
recordError(log.logId(), e.getMessage());
|
|
1118
|
+
}
|
|
1119
|
+
}
|
|
1120
|
+
}
|
|
1121
|
+
|
|
1122
|
+
private void markAsProcessed(Long logId) {
|
|
1123
|
+
jdbcTemplate.update(
|
|
1124
|
+
"UPDATE 変更ログ SET 処理済フラグ = TRUE, 処理日時 = CURRENT_TIMESTAMP WHERE ログID = ?",
|
|
1125
|
+
logId
|
|
1126
|
+
);
|
|
1127
|
+
}
|
|
1128
|
+
|
|
1129
|
+
private void recordError(Long logId, String errorMessage) {
|
|
1130
|
+
jdbcTemplate.update(
|
|
1131
|
+
"UPDATE 変更ログ SET エラー内容 = ? WHERE ログID = ?",
|
|
1132
|
+
errorMessage, logId
|
|
1133
|
+
);
|
|
1134
|
+
}
|
|
1135
|
+
}
|
|
1136
|
+
|
|
1137
|
+
// 変更ログハンドラーインターフェース
|
|
1138
|
+
public interface ChangeLogHandler {
|
|
1139
|
+
void handle(ChangeLog log);
|
|
1140
|
+
}
|
|
1141
|
+
|
|
1142
|
+
// 売上変更ログハンドラー
|
|
1143
|
+
@Component("売上")
|
|
1144
|
+
public class SalesChangeLogHandler implements ChangeLogHandler {
|
|
1145
|
+
private final ObjectMapper objectMapper;
|
|
1146
|
+
private final JournalSyncService journalSyncService;
|
|
1147
|
+
|
|
1148
|
+
@Override
|
|
1149
|
+
public void handle(ChangeLog log) {
|
|
1150
|
+
switch (log.operation()) {
|
|
1151
|
+
case "INSERT" -> {
|
|
1152
|
+
SalesData sales = parseJson(log.afterData(), SalesData.class);
|
|
1153
|
+
journalSyncService.createJournalFromSales(sales);
|
|
1154
|
+
}
|
|
1155
|
+
case "UPDATE" -> {
|
|
1156
|
+
SalesData oldSales = parseJson(log.beforeData(), SalesData.class);
|
|
1157
|
+
SalesData newSales = parseJson(log.afterData(), SalesData.class);
|
|
1158
|
+
journalSyncService.reverseJournal(oldSales);
|
|
1159
|
+
journalSyncService.createJournalFromSales(newSales);
|
|
1160
|
+
}
|
|
1161
|
+
case "DELETE" -> {
|
|
1162
|
+
SalesData sales = parseJson(log.beforeData(), SalesData.class);
|
|
1163
|
+
journalSyncService.reverseJournal(sales);
|
|
1164
|
+
}
|
|
1165
|
+
}
|
|
1166
|
+
}
|
|
1167
|
+
|
|
1168
|
+
private <T> T parseJson(String json, Class<T> clazz) {
|
|
1169
|
+
try {
|
|
1170
|
+
return objectMapper.readValue(json, clazz);
|
|
1171
|
+
} catch (JsonProcessingException e) {
|
|
1172
|
+
throw new RuntimeException("JSON パース失敗", e);
|
|
1173
|
+
}
|
|
1174
|
+
}
|
|
1175
|
+
}
|
|
1176
|
+
```
|
|
1177
|
+
|
|
1178
|
+
</details>
|
|
1179
|
+
|
|
1180
|
+
### メッセージキューによる非同期連携
|
|
1181
|
+
|
|
1182
|
+
メッセージキューを使用した非同期連携は、システム間の疎結合を実現します。
|
|
1183
|
+
|
|
1184
|
+
```plantuml
|
|
1185
|
+
@startuml
|
|
1186
|
+
title メッセージキューによる非同期連携
|
|
1187
|
+
|
|
1188
|
+
rectangle "プロデューサー" as producer {
|
|
1189
|
+
rectangle "販売管理\nサービス" as sales_service
|
|
1190
|
+
}
|
|
1191
|
+
|
|
1192
|
+
rectangle "メッセージブローカー" as broker {
|
|
1193
|
+
queue "売上イベント\nキュー" as sales_queue
|
|
1194
|
+
queue "仕訳イベント\nキュー" as journal_queue
|
|
1195
|
+
queue "在庫イベント\nキュー" as inventory_queue
|
|
1196
|
+
}
|
|
1197
|
+
|
|
1198
|
+
rectangle "コンシューマー" as consumer {
|
|
1199
|
+
rectangle "財務会計\nサービス" as accounting_service
|
|
1200
|
+
rectangle "在庫管理\nサービス" as inventory_service
|
|
1201
|
+
rectangle "分析\nサービス" as analytics_service
|
|
1202
|
+
}
|
|
1203
|
+
|
|
1204
|
+
sales_service --> sales_queue : 売上イベント発行
|
|
1205
|
+
|
|
1206
|
+
sales_queue --> accounting_service : 消費(仕訳生成)
|
|
1207
|
+
sales_queue --> inventory_service : 消費(在庫更新)
|
|
1208
|
+
sales_queue --> analytics_service : 消費(分析用)
|
|
1209
|
+
|
|
1210
|
+
accounting_service --> journal_queue : 仕訳イベント発行
|
|
1211
|
+
|
|
1212
|
+
note bottom of broker
|
|
1213
|
+
【メッセージキューの特徴】
|
|
1214
|
+
・非同期処理による疎結合
|
|
1215
|
+
・メッセージの永続化
|
|
1216
|
+
・再処理・リトライが容易
|
|
1217
|
+
・スケーラビリティ
|
|
1218
|
+
end note
|
|
1219
|
+
|
|
1220
|
+
@enduml
|
|
1221
|
+
```
|
|
1222
|
+
|
|
1223
|
+
#### メッセージ配信パターン
|
|
1224
|
+
|
|
1225
|
+
```plantuml
|
|
1226
|
+
@startuml
|
|
1227
|
+
title メッセージ配信パターン
|
|
1228
|
+
|
|
1229
|
+
rectangle "Point-to-Point" as p2p {
|
|
1230
|
+
queue "キュー" as queue1
|
|
1231
|
+
rectangle "Consumer A" as consumer_a
|
|
1232
|
+
queue1 --> consumer_a : 1対1配信
|
|
1233
|
+
note right of queue1
|
|
1234
|
+
1つのメッセージは
|
|
1235
|
+
1つのコンシューマーのみが受信
|
|
1236
|
+
end note
|
|
1237
|
+
}
|
|
1238
|
+
|
|
1239
|
+
rectangle "Pub/Sub" as pubsub {
|
|
1240
|
+
rectangle "トピック" as topic
|
|
1241
|
+
rectangle "Consumer B" as consumer_b
|
|
1242
|
+
rectangle "Consumer C" as consumer_c
|
|
1243
|
+
rectangle "Consumer D" as consumer_d
|
|
1244
|
+
topic --> consumer_b
|
|
1245
|
+
topic --> consumer_c
|
|
1246
|
+
topic --> consumer_d
|
|
1247
|
+
note right of topic
|
|
1248
|
+
1つのメッセージを
|
|
1249
|
+
複数のサブスクライバーが受信
|
|
1250
|
+
end note
|
|
1251
|
+
}
|
|
1252
|
+
|
|
1253
|
+
rectangle "Competing Consumers" as competing {
|
|
1254
|
+
queue "キュー" as queue2
|
|
1255
|
+
rectangle "Consumer E1" as consumer_e1
|
|
1256
|
+
rectangle "Consumer E2" as consumer_e2
|
|
1257
|
+
rectangle "Consumer E3" as consumer_e3
|
|
1258
|
+
queue2 --> consumer_e1
|
|
1259
|
+
queue2 --> consumer_e2
|
|
1260
|
+
queue2 --> consumer_e3
|
|
1261
|
+
note right of queue2
|
|
1262
|
+
複数のコンシューマーが
|
|
1263
|
+
並列でメッセージを処理
|
|
1264
|
+
(負荷分散)
|
|
1265
|
+
end note
|
|
1266
|
+
}
|
|
1267
|
+
|
|
1268
|
+
@enduml
|
|
1269
|
+
```
|
|
1270
|
+
|
|
1271
|
+
<details>
|
|
1272
|
+
<summary>Java 実装例 - メッセージキュー連携</summary>
|
|
1273
|
+
|
|
1274
|
+
```java
|
|
1275
|
+
// メッセージプロデューサー
|
|
1276
|
+
@Service
|
|
1277
|
+
public class SalesEventPublisher {
|
|
1278
|
+
private final RabbitTemplate rabbitTemplate;
|
|
1279
|
+
private final ObjectMapper objectMapper;
|
|
1280
|
+
|
|
1281
|
+
private static final String EXCHANGE = "sales.events";
|
|
1282
|
+
|
|
1283
|
+
public void publishSalesCreated(SalesData sales) {
|
|
1284
|
+
SalesCreatedEvent event = new SalesCreatedEvent(
|
|
1285
|
+
UUID.randomUUID().toString(),
|
|
1286
|
+
Instant.now(),
|
|
1287
|
+
sales.getSalesNumber(),
|
|
1288
|
+
sales.getCustomerCode(),
|
|
1289
|
+
sales.getSalesDate(),
|
|
1290
|
+
sales.getTotalAmount()
|
|
1291
|
+
);
|
|
1292
|
+
|
|
1293
|
+
publish(event, "sales.created");
|
|
1294
|
+
}
|
|
1295
|
+
|
|
1296
|
+
public void publishSalesCancelled(String salesNumber, String reason) {
|
|
1297
|
+
SalesCancelledEvent event = new SalesCancelledEvent(
|
|
1298
|
+
UUID.randomUUID().toString(),
|
|
1299
|
+
Instant.now(),
|
|
1300
|
+
salesNumber,
|
|
1301
|
+
reason
|
|
1302
|
+
);
|
|
1303
|
+
|
|
1304
|
+
publish(event, "sales.cancelled");
|
|
1305
|
+
}
|
|
1306
|
+
|
|
1307
|
+
private void publish(Object event, String routingKey) {
|
|
1308
|
+
try {
|
|
1309
|
+
String json = objectMapper.writeValueAsString(event);
|
|
1310
|
+
rabbitTemplate.convertAndSend(EXCHANGE, routingKey, json);
|
|
1311
|
+
log.info("イベント発行: {} -> {}", routingKey, event);
|
|
1312
|
+
} catch (Exception e) {
|
|
1313
|
+
log.error("イベント発行失敗", e);
|
|
1314
|
+
throw new EventPublishException(e);
|
|
1315
|
+
}
|
|
1316
|
+
}
|
|
1317
|
+
}
|
|
1318
|
+
|
|
1319
|
+
// メッセージコンシューマー
|
|
1320
|
+
@Component
|
|
1321
|
+
public class SalesEventConsumer {
|
|
1322
|
+
private final ObjectMapper objectMapper;
|
|
1323
|
+
private final JournalService journalService;
|
|
1324
|
+
private final InventoryService inventoryService;
|
|
1325
|
+
|
|
1326
|
+
@RabbitListener(queues = "accounting.sales.queue")
|
|
1327
|
+
public void handleSalesCreatedForAccounting(String message) {
|
|
1328
|
+
SalesCreatedEvent event = parseEvent(message, SalesCreatedEvent.class);
|
|
1329
|
+
|
|
1330
|
+
try {
|
|
1331
|
+
// 仕訳生成
|
|
1332
|
+
journalService.createFromSales(event);
|
|
1333
|
+
log.info("売上仕訳生成完了: {}", event.salesNumber());
|
|
1334
|
+
|
|
1335
|
+
} catch (Exception e) {
|
|
1336
|
+
log.error("売上仕訳生成失敗: {}", event.salesNumber(), e);
|
|
1337
|
+
throw new AmqpRejectAndDontRequeueException(e);
|
|
1338
|
+
}
|
|
1339
|
+
}
|
|
1340
|
+
|
|
1341
|
+
@RabbitListener(queues = "inventory.sales.queue")
|
|
1342
|
+
public void handleSalesCreatedForInventory(String message) {
|
|
1343
|
+
SalesCreatedEvent event = parseEvent(message, SalesCreatedEvent.class);
|
|
1344
|
+
|
|
1345
|
+
try {
|
|
1346
|
+
// 在庫引当解除
|
|
1347
|
+
inventoryService.releaseAllocation(event.salesNumber());
|
|
1348
|
+
log.info("在庫引当解除完了: {}", event.salesNumber());
|
|
1349
|
+
|
|
1350
|
+
} catch (Exception e) {
|
|
1351
|
+
log.error("在庫引当解除失敗: {}", event.salesNumber(), e);
|
|
1352
|
+
throw new AmqpRejectAndDontRequeueException(e);
|
|
1353
|
+
}
|
|
1354
|
+
}
|
|
1355
|
+
|
|
1356
|
+
private <T> T parseEvent(String message, Class<T> clazz) {
|
|
1357
|
+
try {
|
|
1358
|
+
return objectMapper.readValue(message, clazz);
|
|
1359
|
+
} catch (JsonProcessingException e) {
|
|
1360
|
+
throw new EventParseException(e);
|
|
1361
|
+
}
|
|
1362
|
+
}
|
|
1363
|
+
}
|
|
1364
|
+
|
|
1365
|
+
// RabbitMQ 設定
|
|
1366
|
+
@Configuration
|
|
1367
|
+
public class RabbitMqConfig {
|
|
1368
|
+
|
|
1369
|
+
@Bean
|
|
1370
|
+
public TopicExchange salesEventsExchange() {
|
|
1371
|
+
return new TopicExchange("sales.events");
|
|
1372
|
+
}
|
|
1373
|
+
|
|
1374
|
+
@Bean
|
|
1375
|
+
public Queue accountingSalesQueue() {
|
|
1376
|
+
return QueueBuilder.durable("accounting.sales.queue")
|
|
1377
|
+
.withArgument("x-dead-letter-exchange", "sales.events.dlx")
|
|
1378
|
+
.withArgument("x-dead-letter-routing-key", "accounting.sales.dead")
|
|
1379
|
+
.build();
|
|
1380
|
+
}
|
|
1381
|
+
|
|
1382
|
+
@Bean
|
|
1383
|
+
public Queue inventorySalesQueue() {
|
|
1384
|
+
return QueueBuilder.durable("inventory.sales.queue")
|
|
1385
|
+
.withArgument("x-dead-letter-exchange", "sales.events.dlx")
|
|
1386
|
+
.withArgument("x-dead-letter-routing-key", "inventory.sales.dead")
|
|
1387
|
+
.build();
|
|
1388
|
+
}
|
|
1389
|
+
|
|
1390
|
+
@Bean
|
|
1391
|
+
public Binding accountingBinding() {
|
|
1392
|
+
return BindingBuilder
|
|
1393
|
+
.bind(accountingSalesQueue())
|
|
1394
|
+
.to(salesEventsExchange())
|
|
1395
|
+
.with("sales.*");
|
|
1396
|
+
}
|
|
1397
|
+
|
|
1398
|
+
@Bean
|
|
1399
|
+
public Binding inventoryBinding() {
|
|
1400
|
+
return BindingBuilder
|
|
1401
|
+
.bind(inventorySalesQueue())
|
|
1402
|
+
.to(salesEventsExchange())
|
|
1403
|
+
.with("sales.*");
|
|
1404
|
+
}
|
|
1405
|
+
|
|
1406
|
+
// Dead Letter Queue 設定
|
|
1407
|
+
@Bean
|
|
1408
|
+
public DirectExchange deadLetterExchange() {
|
|
1409
|
+
return new DirectExchange("sales.events.dlx");
|
|
1410
|
+
}
|
|
1411
|
+
|
|
1412
|
+
@Bean
|
|
1413
|
+
public Queue deadLetterQueue() {
|
|
1414
|
+
return QueueBuilder.durable("sales.events.dead").build();
|
|
1415
|
+
}
|
|
1416
|
+
}
|
|
1417
|
+
```
|
|
1418
|
+
|
|
1419
|
+
</details>
|
|
1420
|
+
|
|
1421
|
+
---
|
|
1422
|
+
|
|
1423
|
+
## 39.3 連携テーブルの設計
|
|
1424
|
+
|
|
1425
|
+
### 連携ステータス管理
|
|
1426
|
+
|
|
1427
|
+
データ連携の状態を追跡するためのテーブル設計は、運用上非常に重要です。
|
|
1428
|
+
|
|
1429
|
+
```plantuml
|
|
1430
|
+
@startuml
|
|
1431
|
+
title 連携ステータス管理テーブル
|
|
1432
|
+
|
|
1433
|
+
entity "連携ジョブ" as job {
|
|
1434
|
+
*ジョブID : UUID <<PK>>
|
|
1435
|
+
--
|
|
1436
|
+
*ジョブ名 : VARCHAR(100)
|
|
1437
|
+
*連携種別 : VARCHAR(50)
|
|
1438
|
+
ソースシステム : VARCHAR(50)
|
|
1439
|
+
ターゲットシステム : VARCHAR(50)
|
|
1440
|
+
スケジュール : VARCHAR(50)
|
|
1441
|
+
有効フラグ : BOOLEAN
|
|
1442
|
+
作成日時 : TIMESTAMP
|
|
1443
|
+
}
|
|
1444
|
+
|
|
1445
|
+
entity "連携実行履歴" as execution {
|
|
1446
|
+
*実行ID : UUID <<PK>>
|
|
1447
|
+
--
|
|
1448
|
+
*ジョブID : UUID <<FK>>
|
|
1449
|
+
*開始日時 : TIMESTAMP
|
|
1450
|
+
終了日時 : TIMESTAMP
|
|
1451
|
+
*ステータス : VARCHAR(20)
|
|
1452
|
+
抽出件数 : INTEGER
|
|
1453
|
+
成功件数 : INTEGER
|
|
1454
|
+
エラー件数 : INTEGER
|
|
1455
|
+
スキップ件数 : INTEGER
|
|
1456
|
+
エラー内容 : TEXT
|
|
1457
|
+
}
|
|
1458
|
+
|
|
1459
|
+
entity "連携対象データ" as data {
|
|
1460
|
+
*データID : UUID <<PK>>
|
|
1461
|
+
--
|
|
1462
|
+
*実行ID : UUID <<FK>>
|
|
1463
|
+
*ソースID : VARCHAR(100)
|
|
1464
|
+
*連携ステータス : VARCHAR(20)
|
|
1465
|
+
処理日時 : TIMESTAMP
|
|
1466
|
+
エラー内容 : TEXT
|
|
1467
|
+
リトライ回数 : INTEGER
|
|
1468
|
+
}
|
|
1469
|
+
|
|
1470
|
+
entity "連携エラー詳細" as error {
|
|
1471
|
+
*エラーID : UUID <<PK>>
|
|
1472
|
+
--
|
|
1473
|
+
*データID : UUID <<FK>>
|
|
1474
|
+
*エラー種別 : VARCHAR(50)
|
|
1475
|
+
*エラーメッセージ : TEXT
|
|
1476
|
+
スタックトレース : TEXT
|
|
1477
|
+
発生日時 : TIMESTAMP
|
|
1478
|
+
}
|
|
1479
|
+
|
|
1480
|
+
job ||--o{ execution : has
|
|
1481
|
+
execution ||--o{ data : contains
|
|
1482
|
+
data ||--o{ error : has
|
|
1483
|
+
|
|
1484
|
+
note right of execution
|
|
1485
|
+
【ステータス】
|
|
1486
|
+
・RUNNING: 実行中
|
|
1487
|
+
・SUCCESS: 正常完了
|
|
1488
|
+
・PARTIAL: 部分完了
|
|
1489
|
+
・FAILED: 失敗
|
|
1490
|
+
・CANCELLED: 中止
|
|
1491
|
+
end note
|
|
1492
|
+
|
|
1493
|
+
note right of data
|
|
1494
|
+
【連携ステータス】
|
|
1495
|
+
・PENDING: 処理待ち
|
|
1496
|
+
・PROCESSING: 処理中
|
|
1497
|
+
・SUCCESS: 成功
|
|
1498
|
+
・ERROR: エラー
|
|
1499
|
+
・SKIPPED: スキップ
|
|
1500
|
+
end note
|
|
1501
|
+
|
|
1502
|
+
@enduml
|
|
1503
|
+
```
|
|
1504
|
+
|
|
1505
|
+
<details>
|
|
1506
|
+
<summary>SQL 定義</summary>
|
|
1507
|
+
|
|
1508
|
+
```sql
|
|
1509
|
+
-- 連携ジョブマスタ
|
|
1510
|
+
CREATE TABLE 連携ジョブ (
|
|
1511
|
+
ジョブID UUID PRIMARY KEY DEFAULT gen_random_uuid(),
|
|
1512
|
+
ジョブ名 VARCHAR(100) NOT NULL UNIQUE,
|
|
1513
|
+
連携種別 VARCHAR(50) NOT NULL, -- BATCH, REALTIME, CDC
|
|
1514
|
+
ソースシステム VARCHAR(50),
|
|
1515
|
+
ターゲットシステム VARCHAR(50),
|
|
1516
|
+
スケジュール VARCHAR(50), -- cron 式
|
|
1517
|
+
設定JSON JSONB,
|
|
1518
|
+
有効フラグ BOOLEAN DEFAULT TRUE,
|
|
1519
|
+
作成日時 TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
|
|
1520
|
+
更新日時 TIMESTAMP DEFAULT CURRENT_TIMESTAMP
|
|
1521
|
+
);
|
|
1522
|
+
|
|
1523
|
+
-- 連携実行履歴
|
|
1524
|
+
CREATE TABLE 連携実行履歴 (
|
|
1525
|
+
実行ID UUID PRIMARY KEY DEFAULT gen_random_uuid(),
|
|
1526
|
+
ジョブID UUID NOT NULL REFERENCES 連携ジョブ(ジョブID),
|
|
1527
|
+
開始日時 TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP,
|
|
1528
|
+
終了日時 TIMESTAMP,
|
|
1529
|
+
ステータス VARCHAR(20) NOT NULL DEFAULT 'RUNNING',
|
|
1530
|
+
抽出件数 INTEGER DEFAULT 0,
|
|
1531
|
+
成功件数 INTEGER DEFAULT 0,
|
|
1532
|
+
エラー件数 INTEGER DEFAULT 0,
|
|
1533
|
+
スキップ件数 INTEGER DEFAULT 0,
|
|
1534
|
+
エラー内容 TEXT,
|
|
1535
|
+
実行パラメータ JSONB,
|
|
1536
|
+
CONSTRAINT chk_ステータス CHECK (
|
|
1537
|
+
ステータス IN ('RUNNING', 'SUCCESS', 'PARTIAL', 'FAILED', 'CANCELLED')
|
|
1538
|
+
)
|
|
1539
|
+
);
|
|
1540
|
+
|
|
1541
|
+
CREATE INDEX idx_連携実行履歴_ジョブ日時
|
|
1542
|
+
ON 連携実行履歴 (ジョブID, 開始日時 DESC);
|
|
1543
|
+
|
|
1544
|
+
-- 連携対象データ
|
|
1545
|
+
CREATE TABLE 連携対象データ (
|
|
1546
|
+
データID UUID PRIMARY KEY DEFAULT gen_random_uuid(),
|
|
1547
|
+
実行ID UUID NOT NULL REFERENCES 連携実行履歴(実行ID),
|
|
1548
|
+
ソースID VARCHAR(100) NOT NULL,
|
|
1549
|
+
連携ステータス VARCHAR(20) NOT NULL DEFAULT 'PENDING',
|
|
1550
|
+
処理日時 TIMESTAMP,
|
|
1551
|
+
エラー内容 TEXT,
|
|
1552
|
+
リトライ回数 INTEGER DEFAULT 0,
|
|
1553
|
+
ソースデータ JSONB,
|
|
1554
|
+
CONSTRAINT chk_連携ステータス CHECK (
|
|
1555
|
+
連携ステータス IN ('PENDING', 'PROCESSING', 'SUCCESS', 'ERROR', 'SKIPPED')
|
|
1556
|
+
)
|
|
1557
|
+
);
|
|
1558
|
+
|
|
1559
|
+
CREATE INDEX idx_連携対象データ_実行ステータス
|
|
1560
|
+
ON 連携対象データ (実行ID, 連携ステータス);
|
|
1561
|
+
|
|
1562
|
+
-- 連携エラー詳細
|
|
1563
|
+
CREATE TABLE 連携エラー詳細 (
|
|
1564
|
+
エラーID UUID PRIMARY KEY DEFAULT gen_random_uuid(),
|
|
1565
|
+
データID UUID NOT NULL REFERENCES 連携対象データ(データID),
|
|
1566
|
+
エラー種別 VARCHAR(50) NOT NULL,
|
|
1567
|
+
エラーメッセージ TEXT NOT NULL,
|
|
1568
|
+
スタックトレース TEXT,
|
|
1569
|
+
発生日時 TIMESTAMP DEFAULT CURRENT_TIMESTAMP
|
|
1570
|
+
);
|
|
1571
|
+
|
|
1572
|
+
-- 連携サマリービュー
|
|
1573
|
+
CREATE VIEW v_連携サマリー AS
|
|
1574
|
+
SELECT
|
|
1575
|
+
j.ジョブ名,
|
|
1576
|
+
j.連携種別,
|
|
1577
|
+
e.実行ID,
|
|
1578
|
+
e.開始日時,
|
|
1579
|
+
e.終了日時,
|
|
1580
|
+
e.ステータス,
|
|
1581
|
+
e.抽出件数,
|
|
1582
|
+
e.成功件数,
|
|
1583
|
+
e.エラー件数,
|
|
1584
|
+
CASE
|
|
1585
|
+
WHEN e.抽出件数 > 0
|
|
1586
|
+
THEN ROUND(e.成功件数::NUMERIC / e.抽出件数 * 100, 2)
|
|
1587
|
+
ELSE 0
|
|
1588
|
+
END AS 成功率
|
|
1589
|
+
FROM 連携ジョブ j
|
|
1590
|
+
JOIN 連携実行履歴 e ON j.ジョブID = e.ジョブID
|
|
1591
|
+
ORDER BY e.開始日時 DESC;
|
|
1592
|
+
```
|
|
1593
|
+
|
|
1594
|
+
</details>
|
|
1595
|
+
|
|
1596
|
+
### エラーハンドリングとリトライ
|
|
1597
|
+
|
|
1598
|
+
データ連携におけるエラーハンドリングは、システムの信頼性を確保するために重要です。
|
|
1599
|
+
|
|
1600
|
+
```plantuml
|
|
1601
|
+
@startuml
|
|
1602
|
+
title エラーハンドリングとリトライフロー
|
|
1603
|
+
|
|
1604
|
+
|連携処理|
|
|
1605
|
+
start
|
|
1606
|
+
:データ取得;
|
|
1607
|
+
|
|
1608
|
+
repeat
|
|
1609
|
+
:データ処理実行;
|
|
1610
|
+
|
|
1611
|
+
if (成功?) then (yes)
|
|
1612
|
+
:成功記録;
|
|
1613
|
+
break
|
|
1614
|
+
else (no)
|
|
1615
|
+
:リトライ回数 + 1;
|
|
1616
|
+
|
|
1617
|
+
if (リトライ上限?) then (no)
|
|
1618
|
+
:待機(指数バックオフ);
|
|
1619
|
+
note right
|
|
1620
|
+
1回目: 1秒
|
|
1621
|
+
2回目: 2秒
|
|
1622
|
+
3回目: 4秒
|
|
1623
|
+
4回目: 8秒
|
|
1624
|
+
...
|
|
1625
|
+
end note
|
|
1626
|
+
else (yes)
|
|
1627
|
+
:エラー記録;
|
|
1628
|
+
:Dead Letter Queue へ;
|
|
1629
|
+
break
|
|
1630
|
+
endif
|
|
1631
|
+
endif
|
|
1632
|
+
repeat while (リトライ中)
|
|
1633
|
+
|
|
1634
|
+
stop
|
|
1635
|
+
|
|
1636
|
+
@enduml
|
|
1637
|
+
```
|
|
1638
|
+
|
|
1639
|
+
#### リトライ戦略
|
|
1640
|
+
|
|
1641
|
+
```plantuml
|
|
1642
|
+
@startuml
|
|
1643
|
+
title リトライ戦略の比較
|
|
1644
|
+
|
|
1645
|
+
rectangle "固定間隔リトライ" as fixed {
|
|
1646
|
+
note right
|
|
1647
|
+
【特徴】
|
|
1648
|
+
一定間隔でリトライ
|
|
1649
|
+
例: 5秒ごと
|
|
1650
|
+
|
|
1651
|
+
【適用場面】
|
|
1652
|
+
・短期的な障害
|
|
1653
|
+
・軽微なエラー
|
|
1654
|
+
end note
|
|
1655
|
+
}
|
|
1656
|
+
|
|
1657
|
+
rectangle "指数バックオフ" as exponential {
|
|
1658
|
+
note right
|
|
1659
|
+
【特徴】
|
|
1660
|
+
リトライ間隔を指数的に増加
|
|
1661
|
+
例: 1秒 → 2秒 → 4秒 → 8秒
|
|
1662
|
+
|
|
1663
|
+
【適用場面】
|
|
1664
|
+
・外部サービス障害
|
|
1665
|
+
・負荷軽減が必要な場合
|
|
1666
|
+
end note
|
|
1667
|
+
}
|
|
1668
|
+
|
|
1669
|
+
rectangle "ジッター付きバックオフ" as jitter {
|
|
1670
|
+
note right
|
|
1671
|
+
【特徴】
|
|
1672
|
+
指数バックオフにランダム要素追加
|
|
1673
|
+
例: 1〜2秒 → 2〜4秒 → 4〜8秒
|
|
1674
|
+
|
|
1675
|
+
【適用場面】
|
|
1676
|
+
・多数クライアントの同時リトライ回避
|
|
1677
|
+
・サンダリングハード問題対策
|
|
1678
|
+
end note
|
|
1679
|
+
}
|
|
1680
|
+
|
|
1681
|
+
rectangle "サーキットブレーカー" as circuit {
|
|
1682
|
+
note right
|
|
1683
|
+
【特徴】
|
|
1684
|
+
エラー率が閾値超過で遮断
|
|
1685
|
+
一定時間後に再試行
|
|
1686
|
+
|
|
1687
|
+
【適用場面】
|
|
1688
|
+
・長期的な障害
|
|
1689
|
+
・カスケード障害防止
|
|
1690
|
+
end note
|
|
1691
|
+
}
|
|
1692
|
+
|
|
1693
|
+
@enduml
|
|
1694
|
+
```
|
|
1695
|
+
|
|
1696
|
+
<details>
|
|
1697
|
+
<summary>Java 実装例 - リトライ機構</summary>
|
|
1698
|
+
|
|
1699
|
+
```java
|
|
1700
|
+
// リトライ設定
|
|
1701
|
+
@Configuration
|
|
1702
|
+
public class RetryConfig {
|
|
1703
|
+
|
|
1704
|
+
@Bean
|
|
1705
|
+
public RetryTemplate retryTemplate() {
|
|
1706
|
+
RetryTemplate template = new RetryTemplate();
|
|
1707
|
+
|
|
1708
|
+
// 指数バックオフ設定
|
|
1709
|
+
ExponentialBackOffPolicy backOffPolicy = new ExponentialBackOffPolicy();
|
|
1710
|
+
backOffPolicy.setInitialInterval(1000); // 1秒
|
|
1711
|
+
backOffPolicy.setMultiplier(2.0);
|
|
1712
|
+
backOffPolicy.setMaxInterval(30000); // 最大30秒
|
|
1713
|
+
template.setBackOffPolicy(backOffPolicy);
|
|
1714
|
+
|
|
1715
|
+
// リトライポリシー
|
|
1716
|
+
Map<Class<? extends Throwable>, Boolean> retryableExceptions = new HashMap<>();
|
|
1717
|
+
retryableExceptions.put(TransientDataAccessException.class, true);
|
|
1718
|
+
retryableExceptions.put(TimeoutException.class, true);
|
|
1719
|
+
retryableExceptions.put(ConnectException.class, true);
|
|
1720
|
+
|
|
1721
|
+
SimpleRetryPolicy retryPolicy = new SimpleRetryPolicy(
|
|
1722
|
+
5, // 最大5回
|
|
1723
|
+
retryableExceptions
|
|
1724
|
+
);
|
|
1725
|
+
template.setRetryPolicy(retryPolicy);
|
|
1726
|
+
|
|
1727
|
+
// リスナー
|
|
1728
|
+
template.registerListener(new RetryListenerSupport() {
|
|
1729
|
+
@Override
|
|
1730
|
+
public <T, E extends Throwable> void onError(
|
|
1731
|
+
RetryContext context, RetryCallback<T, E> callback, Throwable throwable) {
|
|
1732
|
+
log.warn("リトライ {} 回目: {}",
|
|
1733
|
+
context.getRetryCount(), throwable.getMessage());
|
|
1734
|
+
}
|
|
1735
|
+
});
|
|
1736
|
+
|
|
1737
|
+
return template;
|
|
1738
|
+
}
|
|
1739
|
+
}
|
|
1740
|
+
|
|
1741
|
+
// リトライ付き連携サービス
|
|
1742
|
+
@Service
|
|
1743
|
+
public class RetryableIntegrationService {
|
|
1744
|
+
private final RetryTemplate retryTemplate;
|
|
1745
|
+
private final IntegrationDataRepository dataRepository;
|
|
1746
|
+
private final DeadLetterService deadLetterService;
|
|
1747
|
+
|
|
1748
|
+
@Transactional
|
|
1749
|
+
public void processWithRetry(IntegrationData data) {
|
|
1750
|
+
try {
|
|
1751
|
+
retryTemplate.execute(context -> {
|
|
1752
|
+
// 処理実行
|
|
1753
|
+
processData(data);
|
|
1754
|
+
|
|
1755
|
+
// 成功記録
|
|
1756
|
+
data.setStatus(IntegrationStatus.SUCCESS);
|
|
1757
|
+
data.setProcessedAt(LocalDateTime.now());
|
|
1758
|
+
dataRepository.save(data);
|
|
1759
|
+
|
|
1760
|
+
return null;
|
|
1761
|
+
});
|
|
1762
|
+
|
|
1763
|
+
} catch (Exception e) {
|
|
1764
|
+
// リトライ上限超過
|
|
1765
|
+
handleMaxRetriesExceeded(data, e);
|
|
1766
|
+
}
|
|
1767
|
+
}
|
|
1768
|
+
|
|
1769
|
+
private void processData(IntegrationData data) {
|
|
1770
|
+
// 実際の連携処理
|
|
1771
|
+
// ...
|
|
1772
|
+
}
|
|
1773
|
+
|
|
1774
|
+
private void handleMaxRetriesExceeded(IntegrationData data, Exception e) {
|
|
1775
|
+
// エラー記録
|
|
1776
|
+
data.setStatus(IntegrationStatus.ERROR);
|
|
1777
|
+
data.setErrorMessage(e.getMessage());
|
|
1778
|
+
data.setRetryCount(data.getRetryCount() + 1);
|
|
1779
|
+
dataRepository.save(data);
|
|
1780
|
+
|
|
1781
|
+
// Dead Letter Queue へ
|
|
1782
|
+
deadLetterService.send(data);
|
|
1783
|
+
|
|
1784
|
+
// アラート通知
|
|
1785
|
+
alertService.notify(
|
|
1786
|
+
"連携エラー: " + data.getSourceId(),
|
|
1787
|
+
e.getMessage()
|
|
1788
|
+
);
|
|
1789
|
+
}
|
|
1790
|
+
}
|
|
1791
|
+
|
|
1792
|
+
// サーキットブレーカー付きサービス
|
|
1793
|
+
@Service
|
|
1794
|
+
public class CircuitBreakerIntegrationService {
|
|
1795
|
+
private final CircuitBreaker circuitBreaker;
|
|
1796
|
+
private final ExternalSystemClient externalClient;
|
|
1797
|
+
|
|
1798
|
+
public CircuitBreakerIntegrationService() {
|
|
1799
|
+
CircuitBreakerConfig config = CircuitBreakerConfig.custom()
|
|
1800
|
+
.failureRateThreshold(50) // 50%以上でオープン
|
|
1801
|
+
.waitDurationInOpenState(Duration.ofSeconds(30))
|
|
1802
|
+
.slidingWindowSize(10)
|
|
1803
|
+
.build();
|
|
1804
|
+
|
|
1805
|
+
this.circuitBreaker = CircuitBreaker.of("external-system", config);
|
|
1806
|
+
}
|
|
1807
|
+
|
|
1808
|
+
public void sendToExternalSystem(IntegrationData data) {
|
|
1809
|
+
Try.ofSupplier(
|
|
1810
|
+
CircuitBreaker.decorateSupplier(circuitBreaker, () -> {
|
|
1811
|
+
return externalClient.send(data);
|
|
1812
|
+
})
|
|
1813
|
+
).recover(CallNotPermittedException.class, e -> {
|
|
1814
|
+
log.warn("サーキットブレーカーオープン中");
|
|
1815
|
+
// フォールバック処理
|
|
1816
|
+
queueForLater(data);
|
|
1817
|
+
return null;
|
|
1818
|
+
}).get();
|
|
1819
|
+
}
|
|
1820
|
+
|
|
1821
|
+
private void queueForLater(IntegrationData data) {
|
|
1822
|
+
// 後で再処理するためキューイング
|
|
1823
|
+
pendingQueue.add(data);
|
|
1824
|
+
}
|
|
1825
|
+
}
|
|
1826
|
+
```
|
|
1827
|
+
|
|
1828
|
+
</details>
|
|
1829
|
+
|
|
1830
|
+
### 冪等性の確保
|
|
1831
|
+
|
|
1832
|
+
データ連携において冪等性を確保することで、重複実行による問題を防ぎます。
|
|
1833
|
+
|
|
1834
|
+
```plantuml
|
|
1835
|
+
@startuml
|
|
1836
|
+
title 冪等性確保のパターン
|
|
1837
|
+
|
|
1838
|
+
rectangle "冪等キー方式" as idempotency_key {
|
|
1839
|
+
note right
|
|
1840
|
+
【仕組み】
|
|
1841
|
+
・リクエストに一意のキーを付与
|
|
1842
|
+
・処理済みキーをテーブルに記録
|
|
1843
|
+
・重複リクエストはスキップ
|
|
1844
|
+
|
|
1845
|
+
【実装】
|
|
1846
|
+
冪等キーテーブルで管理
|
|
1847
|
+
end note
|
|
1848
|
+
}
|
|
1849
|
+
|
|
1850
|
+
rectangle "Upsert 方式" as upsert {
|
|
1851
|
+
note right
|
|
1852
|
+
【仕組み】
|
|
1853
|
+
・INSERT or UPDATE で処理
|
|
1854
|
+
・存在すれば更新、なければ挿入
|
|
1855
|
+
・同じデータで何度実行しても同じ結果
|
|
1856
|
+
|
|
1857
|
+
【実装】
|
|
1858
|
+
INSERT ... ON CONFLICT DO UPDATE
|
|
1859
|
+
end note
|
|
1860
|
+
}
|
|
1861
|
+
|
|
1862
|
+
rectangle "バージョン管理方式" as version {
|
|
1863
|
+
note right
|
|
1864
|
+
【仕組み】
|
|
1865
|
+
・データにバージョン番号を付与
|
|
1866
|
+
・古いバージョンの更新は無視
|
|
1867
|
+
・最新バージョンのみ適用
|
|
1868
|
+
|
|
1869
|
+
【実装】
|
|
1870
|
+
楽観ロック + バージョン比較
|
|
1871
|
+
end note
|
|
1872
|
+
}
|
|
1873
|
+
|
|
1874
|
+
rectangle "ステータス管理方式" as status {
|
|
1875
|
+
note right
|
|
1876
|
+
【仕組み】
|
|
1877
|
+
・処理ステータスを記録
|
|
1878
|
+
・処理済みデータは再処理しない
|
|
1879
|
+
・ステータス遷移を厳密に管理
|
|
1880
|
+
|
|
1881
|
+
【実装】
|
|
1882
|
+
ステータス + 処理日時で判定
|
|
1883
|
+
end note
|
|
1884
|
+
}
|
|
1885
|
+
|
|
1886
|
+
@enduml
|
|
1887
|
+
```
|
|
1888
|
+
|
|
1889
|
+
<details>
|
|
1890
|
+
<summary>SQL 定義 - 冪等性テーブル</summary>
|
|
1891
|
+
|
|
1892
|
+
```sql
|
|
1893
|
+
-- 冪等キーテーブル
|
|
1894
|
+
CREATE TABLE 冪等キー (
|
|
1895
|
+
冪等キー VARCHAR(100) PRIMARY KEY,
|
|
1896
|
+
処理種別 VARCHAR(50) NOT NULL,
|
|
1897
|
+
ソースID VARCHAR(100) NOT NULL,
|
|
1898
|
+
処理結果 JSONB,
|
|
1899
|
+
処理日時 TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
|
|
1900
|
+
有効期限 TIMESTAMP NOT NULL
|
|
1901
|
+
);
|
|
1902
|
+
|
|
1903
|
+
CREATE INDEX idx_冪等キー_有効期限 ON 冪等キー (有効期限);
|
|
1904
|
+
|
|
1905
|
+
-- 期限切れキーの自動削除
|
|
1906
|
+
CREATE OR REPLACE FUNCTION fn_冪等キー_クリーンアップ()
|
|
1907
|
+
RETURNS void AS $$
|
|
1908
|
+
BEGIN
|
|
1909
|
+
DELETE FROM 冪等キー WHERE 有効期限 < CURRENT_TIMESTAMP;
|
|
1910
|
+
END;
|
|
1911
|
+
$$ LANGUAGE plpgsql;
|
|
1912
|
+
|
|
1913
|
+
-- 冪等処理の実行関数
|
|
1914
|
+
CREATE OR REPLACE FUNCTION fn_冪等処理(
|
|
1915
|
+
p_冪等キー VARCHAR,
|
|
1916
|
+
p_処理種別 VARCHAR,
|
|
1917
|
+
p_ソースID VARCHAR,
|
|
1918
|
+
p_有効期間_日数 INTEGER DEFAULT 7
|
|
1919
|
+
) RETURNS TABLE (
|
|
1920
|
+
処理可能 BOOLEAN,
|
|
1921
|
+
既存結果 JSONB
|
|
1922
|
+
) AS $$
|
|
1923
|
+
DECLARE
|
|
1924
|
+
v_existing RECORD;
|
|
1925
|
+
BEGIN
|
|
1926
|
+
-- 既存キーを検索(ロック付き)
|
|
1927
|
+
SELECT * INTO v_existing
|
|
1928
|
+
FROM 冪等キー
|
|
1929
|
+
WHERE 冪等キー = p_冪等キー
|
|
1930
|
+
FOR UPDATE;
|
|
1931
|
+
|
|
1932
|
+
IF v_existing IS NOT NULL THEN
|
|
1933
|
+
-- 既に処理済み
|
|
1934
|
+
RETURN QUERY SELECT FALSE, v_existing.処理結果;
|
|
1935
|
+
ELSE
|
|
1936
|
+
-- 新規キーを登録
|
|
1937
|
+
INSERT INTO 冪等キー (冪等キー, 処理種別, ソースID, 有効期限)
|
|
1938
|
+
VALUES (
|
|
1939
|
+
p_冪等キー,
|
|
1940
|
+
p_処理種別,
|
|
1941
|
+
p_ソースID,
|
|
1942
|
+
CURRENT_TIMESTAMP + (p_有効期間_日数 || ' days')::INTERVAL
|
|
1943
|
+
);
|
|
1944
|
+
RETURN QUERY SELECT TRUE, NULL::JSONB;
|
|
1945
|
+
END IF;
|
|
1946
|
+
END;
|
|
1947
|
+
$$ LANGUAGE plpgsql;
|
|
1948
|
+
|
|
1949
|
+
-- 処理結果の記録関数
|
|
1950
|
+
CREATE OR REPLACE FUNCTION fn_冪等結果記録(
|
|
1951
|
+
p_冪等キー VARCHAR,
|
|
1952
|
+
p_処理結果 JSONB
|
|
1953
|
+
) RETURNS void AS $$
|
|
1954
|
+
BEGIN
|
|
1955
|
+
UPDATE 冪等キー
|
|
1956
|
+
SET 処理結果 = p_処理結果
|
|
1957
|
+
WHERE 冪等キー = p_冪等キー;
|
|
1958
|
+
END;
|
|
1959
|
+
$$ LANGUAGE plpgsql;
|
|
1960
|
+
```
|
|
1961
|
+
|
|
1962
|
+
</details>
|
|
1963
|
+
|
|
1964
|
+
<details>
|
|
1965
|
+
<summary>Java 実装例 - 冪等性サービス</summary>
|
|
1966
|
+
|
|
1967
|
+
```java
|
|
1968
|
+
// 冪等性サービス
|
|
1969
|
+
@Service
|
|
1970
|
+
public class IdempotencyService {
|
|
1971
|
+
private final JdbcTemplate jdbcTemplate;
|
|
1972
|
+
|
|
1973
|
+
/**
|
|
1974
|
+
* 冪等処理を実行
|
|
1975
|
+
* @return true: 処理可能, false: 既に処理済み
|
|
1976
|
+
*/
|
|
1977
|
+
@Transactional
|
|
1978
|
+
public IdempotencyResult checkAndLock(
|
|
1979
|
+
String idempotencyKey,
|
|
1980
|
+
String processType,
|
|
1981
|
+
String sourceId) {
|
|
1982
|
+
|
|
1983
|
+
// 既存キーをチェック
|
|
1984
|
+
Map<String, Object> result = jdbcTemplate.queryForMap(
|
|
1985
|
+
"SELECT * FROM fn_冪等処理(?, ?, ?)",
|
|
1986
|
+
idempotencyKey, processType, sourceId
|
|
1987
|
+
);
|
|
1988
|
+
|
|
1989
|
+
boolean canProcess = (Boolean) result.get("処理可能");
|
|
1990
|
+
String existingResult = (String) result.get("既存結果");
|
|
1991
|
+
|
|
1992
|
+
return new IdempotencyResult(canProcess, existingResult);
|
|
1993
|
+
}
|
|
1994
|
+
|
|
1995
|
+
/**
|
|
1996
|
+
* 処理結果を記録
|
|
1997
|
+
*/
|
|
1998
|
+
@Transactional
|
|
1999
|
+
public void recordResult(String idempotencyKey, Object result) {
|
|
2000
|
+
try {
|
|
2001
|
+
String jsonResult = new ObjectMapper().writeValueAsString(result);
|
|
2002
|
+
jdbcTemplate.update(
|
|
2003
|
+
"SELECT fn_冪等結果記録(?, ?::JSONB)",
|
|
2004
|
+
idempotencyKey, jsonResult
|
|
2005
|
+
);
|
|
2006
|
+
} catch (JsonProcessingException e) {
|
|
2007
|
+
throw new RuntimeException("結果のJSON変換に失敗", e);
|
|
2008
|
+
}
|
|
2009
|
+
}
|
|
2010
|
+
}
|
|
2011
|
+
|
|
2012
|
+
// 冪等性デコレーター
|
|
2013
|
+
@Aspect
|
|
2014
|
+
@Component
|
|
2015
|
+
public class IdempotencyAspect {
|
|
2016
|
+
private final IdempotencyService idempotencyService;
|
|
2017
|
+
|
|
2018
|
+
@Around("@annotation(idempotent)")
|
|
2019
|
+
public Object ensureIdempotency(
|
|
2020
|
+
ProceedingJoinPoint joinPoint,
|
|
2021
|
+
Idempotent idempotent) throws Throwable {
|
|
2022
|
+
|
|
2023
|
+
// 冪等キーを取得
|
|
2024
|
+
String idempotencyKey = extractIdempotencyKey(joinPoint, idempotent);
|
|
2025
|
+
String processType = joinPoint.getSignature().getName();
|
|
2026
|
+
String sourceId = extractSourceId(joinPoint, idempotent);
|
|
2027
|
+
|
|
2028
|
+
// 冪等チェック
|
|
2029
|
+
IdempotencyResult check = idempotencyService.checkAndLock(
|
|
2030
|
+
idempotencyKey, processType, sourceId
|
|
2031
|
+
);
|
|
2032
|
+
|
|
2033
|
+
if (!check.canProcess()) {
|
|
2034
|
+
log.info("冪等スキップ: {} (既存結果: {})",
|
|
2035
|
+
idempotencyKey, check.existingResult());
|
|
2036
|
+
return check.existingResult();
|
|
2037
|
+
}
|
|
2038
|
+
|
|
2039
|
+
try {
|
|
2040
|
+
// 処理実行
|
|
2041
|
+
Object result = joinPoint.proceed();
|
|
2042
|
+
|
|
2043
|
+
// 結果記録
|
|
2044
|
+
idempotencyService.recordResult(idempotencyKey, result);
|
|
2045
|
+
|
|
2046
|
+
return result;
|
|
2047
|
+
|
|
2048
|
+
} catch (Exception e) {
|
|
2049
|
+
// エラー時は冪等キーを削除(再試行可能に)
|
|
2050
|
+
idempotencyService.removeKey(idempotencyKey);
|
|
2051
|
+
throw e;
|
|
2052
|
+
}
|
|
2053
|
+
}
|
|
2054
|
+
|
|
2055
|
+
private String extractIdempotencyKey(
|
|
2056
|
+
ProceedingJoinPoint joinPoint, Idempotent idempotent) {
|
|
2057
|
+
// アノテーションの keyExpression から冪等キーを抽出
|
|
2058
|
+
// SpEL で引数から動的に取得
|
|
2059
|
+
// ...
|
|
2060
|
+
}
|
|
2061
|
+
}
|
|
2062
|
+
|
|
2063
|
+
// 冪等アノテーション
|
|
2064
|
+
@Target(ElementType.METHOD)
|
|
2065
|
+
@Retention(RetentionPolicy.RUNTIME)
|
|
2066
|
+
public @interface Idempotent {
|
|
2067
|
+
String keyExpression(); // SpEL式: "#args[0].id"
|
|
2068
|
+
String sourceIdExpression() default "";
|
|
2069
|
+
}
|
|
2070
|
+
|
|
2071
|
+
// 使用例
|
|
2072
|
+
@Service
|
|
2073
|
+
public class JournalIntegrationService {
|
|
2074
|
+
|
|
2075
|
+
@Idempotent(keyExpression = "'SALES_JOURNAL_' + #sales.salesNumber")
|
|
2076
|
+
@Transactional
|
|
2077
|
+
public JournalEntry createJournalFromSales(SalesData sales) {
|
|
2078
|
+
// この処理は同じ売上番号に対して1回だけ実行される
|
|
2079
|
+
return journalService.createFromSales(sales);
|
|
2080
|
+
}
|
|
2081
|
+
}
|
|
2082
|
+
|
|
2083
|
+
// Upsert による冪等性
|
|
2084
|
+
@Repository
|
|
2085
|
+
public class JournalRepository {
|
|
2086
|
+
|
|
2087
|
+
@Transactional
|
|
2088
|
+
public void upsertFromIntegration(JournalEntry journal) {
|
|
2089
|
+
String sql = """
|
|
2090
|
+
INSERT INTO 仕訳 (
|
|
2091
|
+
伝票番号, 伝票日付, 借方勘定, 借方金額,
|
|
2092
|
+
貸方勘定, 貸方金額, 摘要, ソース種別, ソースID
|
|
2093
|
+
) VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?)
|
|
2094
|
+
ON CONFLICT (ソース種別, ソースID) DO UPDATE SET
|
|
2095
|
+
伝票日付 = EXCLUDED.伝票日付,
|
|
2096
|
+
借方勘定 = EXCLUDED.借方勘定,
|
|
2097
|
+
借方金額 = EXCLUDED.借方金額,
|
|
2098
|
+
貸方勘定 = EXCLUDED.貸方勘定,
|
|
2099
|
+
貸方金額 = EXCLUDED.貸方金額,
|
|
2100
|
+
摘要 = EXCLUDED.摘要,
|
|
2101
|
+
更新日時 = CURRENT_TIMESTAMP
|
|
2102
|
+
""";
|
|
2103
|
+
|
|
2104
|
+
jdbcTemplate.update(sql,
|
|
2105
|
+
journal.getJournalNumber(),
|
|
2106
|
+
journal.getJournalDate(),
|
|
2107
|
+
journal.getDebitAccount(),
|
|
2108
|
+
journal.getDebitAmount(),
|
|
2109
|
+
journal.getCreditAccount(),
|
|
2110
|
+
journal.getCreditAmount(),
|
|
2111
|
+
journal.getDescription(),
|
|
2112
|
+
journal.getSourceType(),
|
|
2113
|
+
journal.getSourceId()
|
|
2114
|
+
);
|
|
2115
|
+
}
|
|
2116
|
+
}
|
|
2117
|
+
```
|
|
2118
|
+
|
|
2119
|
+
</details>
|
|
2120
|
+
|
|
2121
|
+
### 連携監視ダッシュボード
|
|
2122
|
+
|
|
2123
|
+
```plantuml
|
|
2124
|
+
@startuml
|
|
2125
|
+
title 連携監視ダッシュボードの構成
|
|
2126
|
+
|
|
2127
|
+
rectangle "監視ダッシュボード" as dashboard {
|
|
2128
|
+
rectangle "リアルタイム監視" as realtime {
|
|
2129
|
+
rectangle "実行中ジョブ" as running
|
|
2130
|
+
rectangle "キュー滞留" as queue_depth
|
|
2131
|
+
rectangle "エラー発生" as errors
|
|
2132
|
+
}
|
|
2133
|
+
|
|
2134
|
+
rectangle "統計情報" as stats {
|
|
2135
|
+
rectangle "日次処理件数" as daily_count
|
|
2136
|
+
rectangle "成功率推移" as success_rate
|
|
2137
|
+
rectangle "平均処理時間" as avg_time
|
|
2138
|
+
}
|
|
2139
|
+
|
|
2140
|
+
rectangle "アラート" as alerts {
|
|
2141
|
+
rectangle "エラー閾値超過" as error_alert
|
|
2142
|
+
rectangle "遅延アラート" as delay_alert
|
|
2143
|
+
rectangle "滞留アラート" as backlog_alert
|
|
2144
|
+
}
|
|
2145
|
+
}
|
|
2146
|
+
|
|
2147
|
+
database "連携履歴DB" as history_db
|
|
2148
|
+
queue "メッセージキュー" as mq
|
|
2149
|
+
|
|
2150
|
+
history_db --> stats : 集計
|
|
2151
|
+
mq --> queue_depth : 監視
|
|
2152
|
+
history_db --> errors : エラー検出
|
|
2153
|
+
|
|
2154
|
+
alerts --> "通知サービス" : Slack/Email
|
|
2155
|
+
|
|
2156
|
+
@enduml
|
|
2157
|
+
```
|
|
2158
|
+
|
|
2159
|
+
<details>
|
|
2160
|
+
<summary>SQL 定義 - 監視用ビュー</summary>
|
|
2161
|
+
|
|
2162
|
+
```sql
|
|
2163
|
+
-- 日次連携サマリービュー
|
|
2164
|
+
CREATE VIEW v_日次連携サマリー AS
|
|
2165
|
+
SELECT
|
|
2166
|
+
DATE(e.開始日時) AS 実行日,
|
|
2167
|
+
j.ジョブ名,
|
|
2168
|
+
COUNT(*) AS 実行回数,
|
|
2169
|
+
SUM(CASE WHEN e.ステータス = 'SUCCESS' THEN 1 ELSE 0 END) AS 成功回数,
|
|
2170
|
+
SUM(CASE WHEN e.ステータス = 'FAILED' THEN 1 ELSE 0 END) AS 失敗回数,
|
|
2171
|
+
SUM(e.抽出件数) AS 総抽出件数,
|
|
2172
|
+
SUM(e.成功件数) AS 総成功件数,
|
|
2173
|
+
SUM(e.エラー件数) AS 総エラー件数,
|
|
2174
|
+
ROUND(
|
|
2175
|
+
SUM(e.成功件数)::NUMERIC / NULLIF(SUM(e.抽出件数), 0) * 100, 2
|
|
2176
|
+
) AS 成功率,
|
|
2177
|
+
AVG(EXTRACT(EPOCH FROM (e.終了日時 - e.開始日時))) AS 平均処理時間_秒
|
|
2178
|
+
FROM 連携実行履歴 e
|
|
2179
|
+
JOIN 連携ジョブ j ON e.ジョブID = j.ジョブID
|
|
2180
|
+
WHERE e.開始日時 >= CURRENT_DATE - INTERVAL '30 days'
|
|
2181
|
+
GROUP BY DATE(e.開始日時), j.ジョブ名
|
|
2182
|
+
ORDER BY 実行日 DESC, j.ジョブ名;
|
|
2183
|
+
|
|
2184
|
+
-- リアルタイム監視ビュー
|
|
2185
|
+
CREATE VIEW v_リアルタイム監視 AS
|
|
2186
|
+
SELECT
|
|
2187
|
+
j.ジョブ名,
|
|
2188
|
+
e.実行ID,
|
|
2189
|
+
e.ステータス,
|
|
2190
|
+
e.開始日時,
|
|
2191
|
+
EXTRACT(EPOCH FROM (CURRENT_TIMESTAMP - e.開始日時)) AS 経過時間_秒,
|
|
2192
|
+
e.抽出件数,
|
|
2193
|
+
e.成功件数,
|
|
2194
|
+
e.エラー件数,
|
|
2195
|
+
ROUND(
|
|
2196
|
+
e.成功件数::NUMERIC / NULLIF(e.抽出件数, 0) * 100, 2
|
|
2197
|
+
) AS 進捗率
|
|
2198
|
+
FROM 連携実行履歴 e
|
|
2199
|
+
JOIN 連携ジョブ j ON e.ジョブID = j.ジョブID
|
|
2200
|
+
WHERE e.ステータス = 'RUNNING'
|
|
2201
|
+
ORDER BY e.開始日時;
|
|
2202
|
+
|
|
2203
|
+
-- エラー傾向分析ビュー
|
|
2204
|
+
CREATE VIEW v_エラー傾向 AS
|
|
2205
|
+
SELECT
|
|
2206
|
+
j.ジョブ名,
|
|
2207
|
+
ed.エラー種別,
|
|
2208
|
+
COUNT(*) AS 発生件数,
|
|
2209
|
+
MIN(ed.発生日時) AS 初回発生,
|
|
2210
|
+
MAX(ed.発生日時) AS 最終発生
|
|
2211
|
+
FROM 連携エラー詳細 ed
|
|
2212
|
+
JOIN 連携対象データ d ON ed.データID = d.データID
|
|
2213
|
+
JOIN 連携実行履歴 e ON d.実行ID = e.実行ID
|
|
2214
|
+
JOIN 連携ジョブ j ON e.ジョブID = j.ジョブID
|
|
2215
|
+
WHERE ed.発生日時 >= CURRENT_DATE - INTERVAL '7 days'
|
|
2216
|
+
GROUP BY j.ジョブ名, ed.エラー種別
|
|
2217
|
+
ORDER BY 発生件数 DESC;
|
|
2218
|
+
|
|
2219
|
+
-- アラート条件チェック関数
|
|
2220
|
+
CREATE OR REPLACE FUNCTION fn_連携アラートチェック()
|
|
2221
|
+
RETURNS TABLE (
|
|
2222
|
+
アラート種別 VARCHAR,
|
|
2223
|
+
ジョブ名 VARCHAR,
|
|
2224
|
+
メッセージ TEXT,
|
|
2225
|
+
重要度 VARCHAR
|
|
2226
|
+
) AS $$
|
|
2227
|
+
BEGIN
|
|
2228
|
+
-- エラー率アラート
|
|
2229
|
+
RETURN QUERY
|
|
2230
|
+
SELECT
|
|
2231
|
+
'エラー率超過'::VARCHAR,
|
|
2232
|
+
j.ジョブ名,
|
|
2233
|
+
FORMAT('エラー率 %.1f%% (閾値: 10%%)',
|
|
2234
|
+
e.エラー件数::NUMERIC / e.抽出件数 * 100),
|
|
2235
|
+
'HIGH'::VARCHAR
|
|
2236
|
+
FROM 連携実行履歴 e
|
|
2237
|
+
JOIN 連携ジョブ j ON e.ジョブID = j.ジョブID
|
|
2238
|
+
WHERE e.ステータス IN ('PARTIAL', 'FAILED')
|
|
2239
|
+
AND e.開始日時 >= CURRENT_TIMESTAMP - INTERVAL '1 hour'
|
|
2240
|
+
AND e.抽出件数 > 0
|
|
2241
|
+
AND e.エラー件数::NUMERIC / e.抽出件数 > 0.1;
|
|
2242
|
+
|
|
2243
|
+
-- 長時間実行アラート
|
|
2244
|
+
RETURN QUERY
|
|
2245
|
+
SELECT
|
|
2246
|
+
'長時間実行'::VARCHAR,
|
|
2247
|
+
j.ジョブ名,
|
|
2248
|
+
FORMAT('実行時間 %s 分 (閾値: 30分)',
|
|
2249
|
+
EXTRACT(EPOCH FROM (CURRENT_TIMESTAMP - e.開始日時)) / 60),
|
|
2250
|
+
'MEDIUM'::VARCHAR
|
|
2251
|
+
FROM 連携実行履歴 e
|
|
2252
|
+
JOIN 連携ジョブ j ON e.ジョブID = j.ジョブID
|
|
2253
|
+
WHERE e.ステータス = 'RUNNING'
|
|
2254
|
+
AND e.開始日時 < CURRENT_TIMESTAMP - INTERVAL '30 minutes';
|
|
2255
|
+
|
|
2256
|
+
-- 未実行アラート
|
|
2257
|
+
RETURN QUERY
|
|
2258
|
+
SELECT
|
|
2259
|
+
'スケジュール遅延'::VARCHAR,
|
|
2260
|
+
j.ジョブ名,
|
|
2261
|
+
FORMAT('最終実行: %s',
|
|
2262
|
+
COALESCE(MAX(e.開始日時)::TEXT, '実行履歴なし')),
|
|
2263
|
+
'MEDIUM'::VARCHAR
|
|
2264
|
+
FROM 連携ジョブ j
|
|
2265
|
+
LEFT JOIN 連携実行履歴 e ON j.ジョブID = e.ジョブID
|
|
2266
|
+
WHERE j.有効フラグ = TRUE
|
|
2267
|
+
GROUP BY j.ジョブID, j.ジョブ名
|
|
2268
|
+
HAVING MAX(e.開始日時) < CURRENT_TIMESTAMP - INTERVAL '1 day'
|
|
2269
|
+
OR MAX(e.開始日時) IS NULL;
|
|
2270
|
+
END;
|
|
2271
|
+
$$ LANGUAGE plpgsql;
|
|
2272
|
+
```
|
|
2273
|
+
|
|
2274
|
+
</details>
|
|
2275
|
+
|
|
2276
|
+
---
|
|
2277
|
+
|
|
2278
|
+
## 39.4 まとめ
|
|
2279
|
+
|
|
2280
|
+
本章では、データ連携の具体的な実装パターンについて解説しました。
|
|
2281
|
+
|
|
2282
|
+
### 学んだこと
|
|
2283
|
+
|
|
2284
|
+
1. **バッチ連携**
|
|
2285
|
+
|
|
2286
|
+
- ファイル連携(CSV / XML / JSON)の設計と実装
|
|
2287
|
+
- ETL 処理のパターン(Extract-Transform-Load)
|
|
2288
|
+
- 差分抽出と全件抽出の使い分け
|
|
2289
|
+
|
|
2290
|
+
2. **リアルタイム連携**
|
|
2291
|
+
|
|
2292
|
+
- Change Data Capture(CDC)による変更検知
|
|
2293
|
+
- データベーストリガーの活用
|
|
2294
|
+
- メッセージキューによる非同期連携
|
|
2295
|
+
|
|
2296
|
+
3. **連携テーブルの設計**
|
|
2297
|
+
|
|
2298
|
+
- 連携ステータス管理の重要性
|
|
2299
|
+
- エラーハンドリングとリトライ戦略
|
|
2300
|
+
- 冪等性の確保方法
|
|
2301
|
+
|
|
2302
|
+
### 連携パターンの選択指針
|
|
2303
|
+
|
|
2304
|
+
| 要件 | バッチ連携 | リアルタイム連携 |
|
|
2305
|
+
|-----|----------|----------------|
|
|
2306
|
+
| データ量 | 大量 | 少〜中量 |
|
|
2307
|
+
| 即時性 | 不要 | 必要 |
|
|
2308
|
+
| 複雑な変換 | 適している | 向かない |
|
|
2309
|
+
| システム負荷 | 集中(定期実行) | 分散(常時) |
|
|
2310
|
+
| 障害復旧 | 容易 | やや複雑 |
|
|
2311
|
+
| 実装コスト | 低 | 中〜高 |
|
|
2312
|
+
|
|
2313
|
+
### 信頼性確保のチェックリスト
|
|
2314
|
+
|
|
2315
|
+
- [ ] 冪等性が確保されているか
|
|
2316
|
+
- [ ] リトライ機構が実装されているか
|
|
2317
|
+
- [ ] Dead Letter Queue が設定されているか
|
|
2318
|
+
- [ ] 監視・アラートが設定されているか
|
|
2319
|
+
- [ ] エラー発生時の通知が設定されているか
|
|
2320
|
+
- [ ] 手動リカバリ手順が文書化されているか
|
|
2321
|
+
|
|
2322
|
+
### Part 5 の総括
|
|
2323
|
+
|
|
2324
|
+
第5部「エンタープライズインテグレーション」では、基幹業務システム間の統合について体系的に学びました。
|
|
2325
|
+
|
|
2326
|
+
- **第33章**:システム統合の概要と境界づけられたコンテキスト
|
|
2327
|
+
- **第34章**:メッセージングパターン(EIP)
|
|
2328
|
+
- **第35章**:システム間連携パターン(販売・財務・生産)
|
|
2329
|
+
- **第36章**:マスタデータ管理(MDM)
|
|
2330
|
+
- **第37章**:イベント駆動アーキテクチャ
|
|
2331
|
+
- **第38章**:API 設計とサービス連携
|
|
2332
|
+
- **第39章**:データ連携の実装パターン
|
|
2333
|
+
|
|
2334
|
+
これらの知識を活用することで、疎結合で保守性の高い基幹業務システムの統合を実現できます。
|