有了这个表:
CREATE TABLE test_insert ( col1 INT,col2 VARCHAR(10),col3 DATE )
以下代码需要40秒才能运行:
import pyodbc from datetime import date conn = pyodbc.connect('DRIVER={sql Server Native Client 10.0};' 'SERVER=localhost;DATABASE=test;UID=xxx;PWD=yyy') rows = [] row = [1,'abc',date.today()] for i in range(10000): rows.append(row) cursor = conn.cursor() cursor.executemany('INSERT INTO test_insert VALUES (?,?,?)',rows) conn.commit()
psycopg2的等效代码只需要3秒钟.我不认为mssql比postgresql慢得多.有什么想法在使用pyodbc时如何提高批量插入速度?
编辑:添加一些笔记跟随ghoerz发现
在pyodbc中,执行的流程是:
>准备声明
>循环为每组参数
>绑定参数集
>执行
在ceODBC,执法人员的流动是:
>准备声明
>绑定所有参数
>执行
解决方法
@H_404_29@ 我有一个类似的问题,pyodBC插入到sql Server 2008数据库使用executemany().当我在sql端运行一个profiler跟踪时,pyodBC正在创建一个连接,准备参数化的insert语句,并执行一行.然后它将不准备语句,并关闭连接.然后它为每一行重复这个过程.我没有找到任何解决方案在pyodBC没有这样做.我最终切换到ceODBC连接到sql Server,它正确地使用了参数化的语句.