sql-server – 批量加载CouchDB时遇到的问题

前端之家收集整理的这篇文章主要介绍了sql-server – 批量加载CouchDB时遇到的问题前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我在MSsql 2005中有大约15k行,我想迁移到CouchDB,其中一行是一个文档.我有一个CLR-UDF,它将n行写入模式绑定的 XML文件.我有一个XSL转换,它将模式绑定的XML转换为 JSON.

使用这些现有工具,我认为我可以将MSsql转换为XML到JSON.如果我为每个JSON文件批量n行,我可以编写脚本cURL来遍历文件并使用批量API _bulk_docs将它们发布到CouchDB.

这会有用吗?以前有人做过这样的迁移吗?你能推荐一个更好的方法吗?

解决方法

到目前为止,我做了一些从遗留sql数据库到CouchDB的转换.我总是有一个不同的方法.

>我使用sql-DB的主键作为Document-Id.这让我可以反复导入,而不用担心会出现重复文件.
>我做了逐行导入而不是批量导入.它使调试更容易.我通过Internet连接看到每秒5-10次插入.虽然这不是闪电般快,但它对我来说足够快.我最大的数据库是600.000份文件,共20GB.在导入期间逐行膨胀数据库,以便偶尔运行压缩.然后再次,除非你的行是巨大的15.000行听起来不多.

我的导入代码通常如下所示:

def main():
 options = parse_commandline()
 server = couchdb.client.Server(options.couch) 
 db = server[options.db] 
 for kdnnr in get_kundennumemrs():
    data = vars(get_kunde(kdnnr)) 
    doc = {'name1': data.get('name1',''),'strasse': data.get('strasse','plz': data.get('plz','ort': data.get('ort','tel': data.get('tel','kundennr': data.get('kundennr','')}

    # update existing doc or insert a new one
    newdoc = db.get(kdnnr,{})
    newdoc.update(doc)
    if newdoc != db.get(kdnnr,{}):
        db[kdnnr] = newdoc

猜你在找的MsSQL相关文章