|
|
1
3
我有一个类似的性能问题,一个表通常有几百万行,但我只需要处理自上次执行开始以来发生的更改。在我的目标表中,我有一个
如果您遇到锁定问题,因为每条记录的处理时间很长,您可以使用我上面使用的方法,但是将您的集合分成1000行(或者系统可以及时处理的任何行块大小),因此您在任何给定时间只锁定较小的集合。 |
|
2
1
几个指针(我的2分): 考虑将类似于“渐变维度”技术的表拆分为几个“中间”表,具体取决于“系统表”的目标;然后批量加载系统表,而不是逐个记录。 在大容量加载之前删除“input”表,然后重新创建以除去索引等。 在加载之前,不要在该表上分配不必要的(键)索引。 考虑将数据库“恢复模型”切换到批量加载模式,而不是记录批量事务。 可以使用ssis(etl)任务加载、清理和验证吗?
更新:
这样,如果进程(1-4)超时,则始终可以从中间文件开始。您还可以检查每个阶段,并从每个阶段的SSIS创建报告文件,以控制数据质量。操作1-3基本上很慢;这里它们发生在数据库之外,可以在单独的服务器上完成。如果你存档
|
|
Sweepy Dodo · JSON lite的格式化 1 年前 |
|
|
giantjenga · 优化整数向量到二进制向量的转换 1 年前 |
|
Zegarek · Postgresql递归查询未提供预期结果 1 年前 |
|
|
Joe · 为什么这两个查询之间的性能存在如此大的差异? 1 年前 |
|
tic-toc-choc · 在`dplyr中高效使用列表进行过滤` 1 年前 |