是否可以限制或限制从网站下载的数据量?通过服务器设置还是wget设置?
例如,一个页面是1GB大小,我希望wget停止下载100MB.
通过ulimit命令利用系统限制进程资源消耗的能力应该可行.假设你使用bash:
原文链接:https://www.f2er.com/bash/387169.html(ulimit -f 102400; wget $url)
这里的大小是1024字节块.请注意,如果您使用不同的仍然符合标准的shell,或者在POSIX模式下使用bash,则块大小为512字节,因此命令应为:
(ulimit -f 204800; wget $url)