sql-server – pyodbc – 非常慢的批量插入速度

前端之家收集整理的这篇文章主要介绍了sql-server – pyodbc – 非常慢的批量插入速度前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
有了这个表:
CREATE TABLE test_insert (
    col1 INT,col2 VARCHAR(10),col3 DATE
)

以下代码需要40秒才能运行:

import pyodbc

from datetime import date


conn = pyodbc.connect('DRIVER={sql Server Native Client 10.0};'
    'SERVER=localhost;DATABASE=test;UID=xxx;PWD=yyy')

rows = []
row = [1,'abc',date.today()]
for i in range(10000):
    rows.append(row)

cursor = conn.cursor()
cursor.executemany('INSERT INTO test_insert VALUES (?,?,?)',rows)

conn.commit()

psycopg2的等效代码只需要3秒钟.我不认为mssql比postgresql慢得多.有什么想法在使用pyodbc时如何提高批量插入速度?

编辑:添加一些笔记跟随ghoerz发现

在pyodbc中,执行的流程是:

>准备声明
>循环为每组参数

>绑定参数集
>执行

在ceODBC,执法人员的流动是:

>准备声明
>绑定所有参数
>执行

解决方法

我有一个类似的问题,pyodBC插入到sql Server 2008数据库使用executemany().当我在sql端运行一个profiler跟踪时,pyodBC正在创建一个连接,准备参数化的insert语句,并执行一行.然后它将不准备语句,并关闭连接.然后它为每一行重复这个过程.

我没有找到任何解决方案在pyodBC没有这样做.我最终切换到ceODBC连接到sql Server,它正确地使用了参数化的语句.

猜你在找的MsSQL相关文章