嫌pandas的to_sql方法过慢?神方法让你一分钟搞定

import cStringIO

output = cStringIO.StringIO()
# ignore the index
df_a.to_csv(output, sep='\t',index = False, header = False)
output.getvalue()
# jump to start of stream
output.seek(0)

connection = engine.raw_connection() #engine 是 from sqlalchemy import create_engine
cursor = connection.cursor()
# null value become ''
cursor.copy_from(output,table_name,null='')
connection.commit()
cursor.close()

本来50万条数据,使用pd.to_sql方法,设置chunksize=2000,跑了5个小时。
而上面这个方法,插40万条数据,只需1分钟。
方法来自国外大牛,搬运至此,造福大家。
其实原理是使用了pg内置的copy_from方法,SUPER FAST!
    原文作者:Lenskit
    原文地址: https://blog.csdn.net/chenkfkevin/article/details/72911525
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞