数据库 – 使用SqlBulkCopy和Azure进行并行批量插入

前端之家收集整理的这篇文章主要介绍了数据库 – 使用SqlBulkCopy和Azure进行并行批量插入前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我在云上有一个带有sql azure数据库的天蓝色应用程序.我有一个worker角色,需要对文件进行解析处理(最多约3000万行),所以我不能直接使用BCP或SSIS.

我目前正在使用sqlBulkCopy,但是这看起来太慢了,因为我看到400k行的加载时间长达4-5分钟.

我希望并行运行我的批量插入;然而,阅读有关并行导入数据/控制锁定行为的文章,它说sqlBulkCopy要求表没有聚簇索引,并且需要指定表锁(BU锁).但是,azure表必须具有聚簇索引…

甚至可以在sql Azure中的同一个表上并行使用sqlBulkCopy吗?如果没有,那么还有另一个API(我可以在代码中使用)吗?

解决方法

我没有看到你如何比使用sqlBulkCopy更快地运行.在我们的项目中,我们可以在大约3分钟内导入250K行,因此您的速度似乎是正确的.

即使技术上可行,我也不认为并行这样做会有所帮助.我们一次只运行1个导入,否则sql Azure会开始计时我们的请求.

实际上,有时在无法导入的同时运行大型分组查询. sql Azure在确保服务质量方面做了大量工作,包括超时请求超时,占用太多资源等

因此,同时进行多个大型批量插入可能会导致一次超时.

猜你在找的MsSQL相关文章