我必须在资源受限的环境中运行python,只有几GB的虚拟内存.更糟糕的是,作为应用程序设计的一部分,我必须从我的主进程中派出子进程,所有这些都在fork上接收相同数量的虚拟内存的写时复制分配.结果是,在仅分配了1-2个孩子之后,过程组击中了天花板并关闭了所有东西.最后,我无法删除numpy作为依赖;这是一个严格的要求.
关于如何降低初始内存分配的任何建议?
例如
>更改导入时分配给numpy的默认金额?
>禁用该功能并强制python / numpy动态分配?
细节:
红帽企业Linux服务器版本6.9(圣地亚哥)
Python 3.6.2
numpy的> = 1.13.3
裸露的翻译:
import os
os.system('cat "/proc/{}/status"'.format(os.getpid()))
# ... VmRSS: 7300 kB
# ... VmData: 4348 kB
# ... VmSize: 129160 kB
import numpy
os.system('cat "/proc/{}/status"'.format(os.getpid()))
# ... VmRSS: 21020 kB
# ... VmData: 1003220 kB
# ... VmSize: 1247088 kB
最佳答案
谢谢你,skullgoblet1089,提出关于SO和https://github.com/numpy/numpy/issues/10455的问题,以及回答.
引用你的2018-01-24帖子:
引用你的2018-01-24帖子:
通过导出OMP_NUM_THREADS = 4减少线程将降低VM分配.