我有一个617m的csv文件,需要导入到运行在docker中的postgresql数据库内,我通过pycharm自带的导入工具进行导入(已经忽略了indexes和triggers),下面是执行效果:
非常缓慢。查了一下解决方案,发现似乎可以设置增大postgres的内存来实现。
postgres=# show work_mem;
work_mem
----------
4MB
(1 row)
postgres=# ALTER SYSTEM SET work_mem = '800MB';
ALTER SYSTEM
之后重启docker的postgres服务器,再次查询发现确实增大了。
再次导入另一份文件:
收效甚微。既然如此,那我就并行导入多份文件(不同的表):
还好,并不像百度云一样,会导致每个都变慢。那就先这样吧