我一直在一个网站项目(asp.net)工作了大约六个月.最终产品即将上市.该项目使用sql Server作为数据库.我们已经对一些大量的数据进行了性能测试,结果表明,当数据变得太大时,性能会下降,比如200万行(超时问题,延迟响应等).起初我们正在使用完全规范化的数据库,但是由于性能问题(减少连接),现在我们将其部分归一化.首先,是正确的决定吗?
加上当数据大小变得非常大时,可能的解决方案是什么?客户未来会增加?
加上当数据大小变得非常大时,可能的解决方案是什么?客户未来会增加?
我想补充一点:
> 200万行是实体表,解析关系的表有更大的行.
>数据编号时性能下降.的用户增加.
>在识别出大量使用的查询后,进行了非规范化.
>我们还使用了大量的xml列和xquery.这可能是原因吗?
>有点偏离这个话题,我项目中的一些人说,动态SQL查询比存储过程方法快.他们做了一些表现测试来证明自己的观点.我认为恰恰相反.一些大量使用的查询是动态创建的,其中大多数其他查询都封装在存储过程中.