考虑以下测试程序:
#include <iostream> #include <string> #include <vector> int main() { std::cout << sizeof(std::string("hi")) << " "; std::string a[10]; std::cout << sizeof(a) << " "; std::vector<std::string> v(10); std::cout << sizeof(v) + sizeof(std::string) * v.capacity() << "\n"; }
libstdc和libc的输出分别为:
8 80 104 24 240 264
您可以看到,libc占用一个简单程序的内存的3倍.实施方式如何不同,导致这种记忆差异?我需要关心,如何解决这个问题?
解决方法
这是一个简短的程序,可以帮助您探索std :: string:stack和heap的两种内存使用情况.
#include <string> #include <new> #include <cstdio> #include <cstdlib> std::size_t allocated = 0; void* operator new (size_t sz) { void* p = std::malloc(sz); allocated += sz; return p; } void operator delete(void* p) noexcept { return std::free(p); } int main() { allocated = 0; std::string s("hi"); std::printf("stack space = %zu,heap space = %zu,capacity = %zu\n",sizeof(s),allocated,s.capacity()); }
使用http://melpon.org/wandbox/可以轻松获得不同编译器/ lib组合的输出,例如:
gcc 4.9.1:
stack space = 8,heap space = 27,capacity = 2
gcc 5.0.0:
stack space = 32,heap space = 0,capacity = 15
clang / libc:
stack space = 24,capacity = 22
VS-2015:
stack space = 32,capacity = 15
(最后一行是http://webcompiler.cloudapp.net)
上面的输出还显示了容量,它是字符串在从堆中分配一个新的更大的缓冲区之前可以容纳多少个字符的量度.对于gcc-5.0,libc和VS-2015实现,这是短字符串缓冲区的度量.也就是说,分配在堆栈上的大小缓冲区来保存短字符串,从而避免了更多的堆分配.
看来libc实现的短字符串实现最小(堆栈使用),但是包含最大的短字符串缓冲区.而且,如果您计算总内存使用量(堆栈堆),则libc对于所有4个这些实现中的2个字符的字符串的总内存使用量最小.
应该注意,所有这些测量都是在64位平台上进行的.在32位上,libc堆栈使用率将降至12,而小字符串缓冲区下降到10.我不知道32位平台上的其他实现的行为,但您可以使用上面的代码来找出.