Ubuntu 16.04使用Eclipse运行Caffe-SSD的cpp代码

前端之家收集整理的这篇文章主要介绍了Ubuntu 16.04使用Eclipse运行Caffe-SSD的cpp代码前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

前言

此篇博文将详细记录如何使用Eclipse C++运行并调试SSD代码博主针对的是ssd_detect.cpp这个C++检测代码,而非SSD(caffe)框架本身

一个现实问题是,在caffe文件夹下,调试cpp代码显得很困难,每次都要重新编译整个caffe,如想方便地调试和改写代码,其中简便的办法就是使用IDE。因此,对于大型C++工程而言,十分需要把SSD(caffe)作为一个可调用的库,通过写自己的cpp程序来调用caffe的接口函数,实现一整套的检测流程。

博主看了不少关于caffe for eclipse的文章,感觉都没有把整个过程说明白,有些教程甚至是错误的,于是决定成功实现后,自己动手写一篇。本教程适用于原版caffe和衍生的SSD项目,核心内容是如何在eclipse C++上配置SSD所需的caffe环境,以调用caffe C++接口。

安装编译SSD框架

首先需要成功编译SSD源代码,具体过程可以参看之前的博文 SSD:Single Shot MultiBox Detector的安装配置和运行

  1. $ git clone https://github.com/weiliu89/caffe.git
  2. $ cd caffe
  3. $ git checkout ssd
  4.  
  5. $ cp @H_301_32@Makefile.config.example @H_301_32@Makefile.config
  6. # 注意修改Makefile和makefile.config文件
  7.  
  8. $ make -j8
  9. $ make distribute # 正常使用无需,本次试验必须
  10. $ make pycaffe # 可选

下载安装Eclipse for C++

首先需要正确安装eclipse for C++,一般而言,不推荐使用apt-get的形式安装(会安装很多不必要的文件),我们去官网下载Eclipse IDE for C/C++ Developers ,选择64位的压缩包,解压后将得到的eclipse文件夹放在常用目录下,我是放在了/home目录下。

运行软件之前需要安装openjdk,因为eclipse是基于java语言的IDE,必须有java运行环境的支持,可以终端输入java -version 来查看,如确实未安装的话,可通过如下命令安装:

  1. # 不开发java软件,就只需要java运行环境(Java Runtime Environment)
  2. $ sudo apt-get install openjdk-8-jre

然后运行软件./eclipse/eclipse ,现在就可以打开eclipse。

安装OpenCV-2.4.9

下载并编译源码

ssd_detect.cpp的代码中用到了opencv作为图像处理的库,由于博主caffe编译中所使用的opencv是通过apt-get的形式安装的,其安装位置不在/usr/local中,故而eclipse这种IDE是无法正常调用的。所以我们必须下载opencv源码进行安装。

这里吐槽下,百度查到的那些Ubuntu系统安装opencv的教程都坑的不行,经过反复试验,才终于找到了正确安装方法

首先下载opencv源代码,版本没那么重要,但必须是opencv2的,这里选择了最多使用的opencv-2.4.9 ,下载压缩包,解压到常用文件夹,这里我的路径是~/tempfile文件夹中。

  1. # 首先安装opencv所需依赖包
  2. $ sudo apt-get install build-essential libgtk2.0-dev libavcodec-dev libavformat-dev libjpeg62-dev libtiff5 libtiff5-dev cmake cmake-gui libswscale-dev libjasper-dev
  3.  
  4. $ cd ~/tempfile/opencv-2.4.9
  5. $ mkdir build
  6. $ cd build
  7. $ cmake-gui

说明一下 ,许多教程包括opencv官网教程,都使用的是cmake直接配置,但是这样做,后面的make过程中往往会报错。因此我们使用cmake-gui工具进行配置,运行语句,出现如下的界面。

按照上图格式填写路径,然后点击Configure ,就会出现很多编译选项,重点来了,把WITH_CUDABUILD_opencv_gpu 这两个选项去掉,原因是用不到以及编译过程中会疯狂报错。然后点击Generate,再使用make命令编译安装,可以确保成功。

  1. $ make -j8
  2. $ sudo make install

默认安装位置就是/usr/local,不要修改。成功安装后,opencv的源文件链接文件分别存放在/usr/local/include 以及/usr/local/lib 之中。

配置OpenCV环境变量

这一步不是必须的,建议先使用程序测试openCV是否能使用,如果能用,貌似不加环境变量也行。

  1. $ cd ~
  2. $ gedit .profile # 打开文件
  3. export @H_301_32@PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig # 文件最后添加此句
  4. # 保存并退出文件
  5. $ source /etc/profile # 使环境变量生效
  1. $ sudo gedit /etc/ld.so.conf.d/opencv.conf # 打开并新建文件
  2. /usr/local/lib # 空白文件内加入此句
  3. # 保存并退出文件
  4. $ sudo ldconfig # 使opecv的lib路径生效

经过上述流程,就可以在eclipse中使用opencv了,当然,仍需配置相应的include路径和lib文件

安装glog,gflags,boost库

有朋友可能要问了,既然caffe都编译通过了,说明这三个库已经安装,为什么还要再重新单独安装呢?原因和上面的opencv类似,博主安装caffe参考教程是:ubuntu16.04+nvidia gt740m+cuda7.5+caffe安装、测试经历 ,在测试中,使用apt-get安装的这三个库在eclipse中无法调用,编译文件报错,如下图所示,这决定了我必须单独安装这三个库。

当然。如果你能正确识别相关函数,也可以不用安装;否则,请按照以下说明进行源码安装,默认安装位置都是/usr/local。

安装glog

glog是Google发布的一个开源日志库,在caffe中主要起到记录日志的作用,以便开发者查看caffe运行的中间输出结果。我们下载glog-0.3.3.tar.gz 版本,解压到常用文件夹,然后进行安装。

  1. $ cd ~/tempfile/glog-0.3.3
  2. $ ./configure
  3. $ make -j8
  4. $ sudo make install

安装gflags

gflags是Google发布的命令行参数工具,在caffe中主要作用是解析命令行参数,和protobuffer功能类似。我们下载gflags 2.2.0 版本,经测试2.1.1的版本make过程中出错,2.2.0则正常,解压到常用文件夹,然后安装。

  1. $ cd ~/tempfile/gflags-2.2.0
  2. $ mkdir build
  3. $ cd build
  4. $ cmake ..
  5. $ ccmake ..

执行ccmake .. 命令后,会出现ccmake配置界面,如下图所示。

这里,将BUILD_SHARE_LIB 选项设为ON ,也有说倒数第二项也要设为ON,但我没设。然后按c键,出现文字界面后按e键返回,然后再按g键生成Makefile,继续安装。

  1. $ make -j8
  2. $ sudo make install

安装boost

boost也是一个很大的C++运行库,在caffe中主要使用了boost中的智能指针,pycaffe也用到了boost python,方便python调用C++模块。我们下载boost_1_58_0.tar.bz2 版本,解压后进行安装。

  1. $ cd ~/tempfile/boost_1_58_0
  2. # 只安装caffe需要的3个组件,全部安装十分耗时,还可能报错
  3. $ ./bootstrap.sh --with-libraries=system,thread,python
  4. $ ./b2
  5. $ sudo ./b2 install

新建Eclipse C++工程

完成以上步骤,我们就可以新建工程来运行和调试cpp代码了。

新建工程

启动eclipse,新建一个C++ project:File ->New ->C++ Project,选择建立一个空的Linux GCC工程并命名,如下图:

添加文件File ->New ->Source File

复制~/caffe/examples/ssd/ssd_detect.cpp的所有内容到新建的main.cpp文件中。

  1. #include <caffe/caffe.hpp>
  2. #ifdef USE_OPENCV
  3. #include <opencv2/core/core.hpp>
  4. #include <opencv2/highgui/highgui.hpp>
  5. #include <opencv2/imgproc/imgproc.hpp>
  6. #endif // USE_OPENCV
  7. #include <algorithm>
  8. #include <iomanip>
  9. #include <iosfwd>
  10. #include <memory>
  11. #include <string>
  12. #include <utility>
  13. #include <vector>
  14.  
  15. #ifdef USE_OPENCV
  16. using namespace caffe; // NOLINT(build/namespaces)
  17.  
  18. class Detector {
  19. public:
  20. Detector(const string& model_file,const string& weights_file,const string& mean_file,const string& mean_value);
  21.  
  22. std::vector<vector<float> > Detect(const cv::Mat& img);
  23.  
  24. private:
  25. void SetMean(const string& mean_file,const string& mean_value);
  26.  
  27. void WrapInputLayer(std::vector<cv::Mat>* input_channels);
  28.  
  29. void Preprocess(const cv::Mat& img,std::vector<cv::Mat>* input_channels);
  30.  
  31. private:
  32. shared_ptr<Net<float> > net_;
  33. cv::Size input_geometry_;
  34. int num_channels_;
  35. cv::Mat mean_;
  36. };
  37.  
  38. Detector::Detector(const string& model_file,const string& mean_value) {
  39. #ifdef cpu_ONLY
  40. Caffe::set_mode(Caffe::cpu);
  41. #else
  42. Caffe::set_mode(Caffe::GPU);
  43. #endif
  44.  
  45. /* Load the network. */
  46. net_.reset(new Net<float>(model_file,TEST));
  47. net_->CopyTrainedLayersFrom(weights_file);
  48.  
  49. CHECK_EQ(net_->num_inputs(),1) << "Network should have exactly one input.";
  50. CHECK_EQ(net_->num_outputs(),1) << "Network should have exactly one output.";
  51.  
  52. Blob<float>* input_layer = net_->input_blobs()[0];
  53. num_channels_ = input_layer->channels();
  54. CHECK(num_channels_ == 3 || num_channels_ == 1)
  55. << "Input layer should have 1 or 3 channels.";
  56. input_geometry_ = cv::Size(input_layer->width(),input_layer->height());
  57.  
  58. /* Load the binaryproto mean file. */
  59. SetMean(mean_file,mean_value);
  60. }
  61.  
  62. std::vector<vector<float> > Detector::Detect(const cv::Mat& img) {
  63. Blob<float>* input_layer = net_->input_blobs()[0];
  64. input_layer->Reshape(1,num_channels_,input_geometry_.height,input_geometry_.width);
  65. /* Forward dimension change to all layers. */
  66. net_->Reshape();
  67.  
  68. std::vector<cv::Mat> input_channels;
  69. WrapInputLayer(&input_channels);
  70.  
  71. Preprocess(img,&input_channels);
  72.  
  73. net_->Forward();
  74.  
  75. /* Copy the output layer to a std::vector */
  76. Blob<float>* result_blob = net_->output_blobs()[0];
  77. const float* result = result_blob->cpu_data();
  78. const int num_det = result_blob->height();
  79. vector<vector<float> > detections;
  80. for (int k = 0; k < num_det; ++k) {
  81. if (result[0] == -1) {
  82. // Skip invalid detection.
  83. result += 7;
  84. continue;
  85. }
  86. vector<float> detection(result,result + 7);
  87. detections.push_back(detection);
  88. result += 7;
  89. }
  90. return detections;
  91. }
  92.  
  93. /* Load the mean file in binaryproto format. */
  94. void Detector::SetMean(const string& mean_file,const string& mean_value) {
  95. cv::Scalar channel_mean;
  96. if (!mean_file.empty()) {
  97. CHECK(mean_value.empty()) <<
  98. "Cannot specify mean_file and mean_value at the same time";
  99. BlobProto blob_proto;
  100. ReadProtoFromBinaryFileOrDie(mean_file.c_str(),&blob_proto);
  101.  
  102. /* Convert from BlobProto to Blob<float> */
  103. Blob<float> mean_blob;
  104. mean_blob.FromProto(blob_proto);
  105. CHECK_EQ(mean_blob.channels(),num_channels_)
  106. << "Number of channels of mean file doesn't match input layer.";
  107.  
  108. /* The format of the mean file is planar 32-bit float BGR or grayscale. */
  109. std::vector<cv::Mat> channels;
  110. float* data = mean_blob.mutable_cpu_data();
  111. for (int i = 0; i < num_channels_; ++i) {
  112. /* Extract an individual channel. */
  113. cv::Mat channel(mean_blob.height(),mean_blob.width(),CV_32FC1,data);
  114. channels.push_back(channel);
  115. data += mean_blob.height() * mean_blob.width();
  116. }
  117.  
  118. /* Merge the separate channels into a single image. */
  119. cv::Mat mean;
  120. cv::merge(channels,mean);
  121.  
  122. /* Compute the global mean pixel value and create a mean image * filled with this value. */
  123. channel_mean = cv::mean(mean);
  124. mean_ = cv::Mat(input_geometry_,mean.type(),channel_mean);
  125. }
  126. if (!mean_value.empty()) {
  127. CHECK(mean_file.empty()) <<
  128. "Cannot specify mean_file and mean_value at the same time";
  129. stringstream ss(mean_value);
  130. vector<float> values;
  131. string item;
  132. while (getline(ss,item,',')) {
  133. float value = std::atof(item.c_str());
  134. values.push_back(value);
  135. }
  136. CHECK(values.size() == 1 || values.size() == num_channels_) <<
  137. "Specify either 1 mean_value or as many as channels: " << num_channels_;
  138.  
  139. std::vector<cv::Mat> channels;
  140. for (int i = 0; i < num_channels_; ++i) {
  141. /* Extract an individual channel. */
  142. cv::Mat channel(input_geometry_.height,input_geometry_.width,cv::Scalar(values[i]));
  143. channels.push_back(channel);
  144. }
  145. cv::merge(channels,mean_);
  146. }
  147. }
  148.  
  149. /* Wrap the input layer of the network in separate cv::Mat objects * (one per channel). This way we save one memcpy operation and we * don't need to rely on cudaMemcpy2D. The last preprocessing * operation will write the separate channels directly to the input * layer. */
  150. void Detector::WrapInputLayer(std::vector<cv::Mat>* input_channels) {
  151. Blob<float>* input_layer = net_->input_blobs()[0];
  152.  
  153. int width = input_layer->width();
  154. int height = input_layer->height();
  155. float* input_data = input_layer->mutable_cpu_data();
  156. for (int i = 0; i < input_layer->channels(); ++i) {
  157. cv::Mat channel(height,width,input_data);
  158. input_channels->push_back(channel);
  159. input_data += width * height;
  160. }
  161. }
  162.  
  163. void Detector::Preprocess(const cv::Mat& img,std::vector<cv::Mat>* input_channels) {
  164. /* Convert the input image to the input image format of the network. */
  165. cv::Mat sample;
  166. if (img.channels() == 3 && num_channels_ == 1)
  167. cv::cvtColor(img,sample,cv::COLOR_BGR2GRAY);
  168. else if (img.channels() == 4 && num_channels_ == 1)
  169. cv::cvtColor(img,cv::COLOR_BGRA2GRAY);
  170. else if (img.channels() == 4 && num_channels_ == 3)
  171. cv::cvtColor(img,cv::COLOR_BGRA2BGR);
  172. else if (img.channels() == 1 && num_channels_ == 3)
  173. cv::cvtColor(img,cv::COLOR_GRAY2BGR);
  174. else
  175. sample = img;
  176.  
  177. cv::Mat sample_resized;
  178. if (sample.size() != input_geometry_)
  179. cv::resize(sample,sample_resized,input_geometry_);
  180. else
  181. sample_resized = sample;
  182.  
  183. cv::Mat sample_float;
  184. if (num_channels_ == 3)
  185. sample_resized.convertTo(sample_float,CV_32FC3);
  186. else
  187. sample_resized.convertTo(sample_float,CV_32FC1);
  188.  
  189. cv::Mat sample_normalized;
  190. cv::subtract(sample_float,mean_,sample_normalized);
  191.  
  192. /* This operation will write the separate BGR planes directly to the * input layer of the network because it is wrapped by the cv::Mat * objects in input_channels. */
  193. cv::split(sample_normalized,*input_channels);
  194.  
  195. CHECK(reinterpret_cast<float*>(input_channels->at(0).data)
  196. == net_->input_blobs()[0]->cpu_data())
  197. << "Input channels are not wrapping the input layer of the network.";
  198. }
  199.  
  200. DEFINE_string(mean_file,"","The mean file used to subtract from the input image.");
  201. DEFINE_string(mean_value,"104,117,123","If specified,can be one value or can be same as image channels"
  202. " - would subtract from the corresponding channel). Separated by ','."
  203. "Either mean_file or mean_value should be provided,not both.");
  204. DEFINE_string(file_type,"image","The file type in the list_file. Currently support image and video.");
  205. DEFINE_string(out_file,"If provided,store the detection results in the out_file.");
  206. DEFINE_double(confidence_threshold,0.01,"Only store detections with score higher than the threshold.");
  207.  
  208. int main(int argc,char** argv) {
  209. ::google::InitGoogleLogging(argv[0]);
  210. // Print output to stderr (while still logging)
  211. FLAGS_alsologtostderr = 1;
  212.  
  213. #ifndef GFLAGS_GFLAGS_H_
  214. namespace gflags = google;
  215. #endif
  216.  
  217. gflags::SetUsageMessage("Do detection using SSD mode.\n"
  218. "Usage:\n"
  219. " ssd_detect [FLAGS] model_file weights_file list_file\n");
  220. gflags::ParseCommandLineFlags(&argc,&argv,true);
  221.  
  222. if (argc < 4) {
  223. gflags::ShowUsageWithFlagsRestrict(argv[0],"examples/ssd/ssd_detect");
  224. return 1;
  225. }
  226.  
  227. const string& model_file = argv[1];
  228. const string& weights_file = argv[2];
  229. const string& mean_file = FLAGS_mean_file;
  230. const string& mean_value = FLAGS_mean_value;
  231. const string& file_type = FLAGS_file_type;
  232. const string& out_file = FLAGS_out_file;
  233. const float confidence_threshold = FLAGS_confidence_threshold;
  234.  
  235. // Initialize the network.
  236. Detector detector(model_file,weights_file,mean_file,mean_value);
  237.  
  238. // Set the output mode.
  239. std::streambuf* buf = std::cout.rdbuf();
  240. std::ofstream outfile;
  241. if (!out_file.empty()) {
  242. outfile.open(out_file.c_str());
  243. if (outfile.good()) {
  244. buf = outfile.rdbuf();
  245. }
  246. }
  247. std::ostream out(buf);
  248.  
  249. // Process image one by one.
  250. std::ifstream infile(argv[3]);
  251. std::string file;
  252. while (infile >> file) {
  253. if (file_type == "image") {
  254. cv::Mat img = cv::imread(file,-1);
  255. CHECK(!img.empty()) << "Unable to decode image " << file;
  256. std::vector<vector<float> > detections = detector.Detect(img);
  257.  
  258. /* Print the detection results. */
  259. for (int i = 0; i < detections.size(); ++i) {
  260. const vector<float>& d = detections[i];
  261. // Detection format: [image_id,label,score,xmin,ymin,xmax,ymax].
  262. CHECK_EQ(d.size(),7);
  263. const float score = d[2];
  264. if (score >= confidence_threshold) {
  265. out << file << " ";
  266. out << static_cast<int>(d[1]) << " ";
  267. out << score << " ";
  268. out << static_cast<int>(d[3] * img.cols) << " ";
  269. out << static_cast<int>(d[4] * img.rows) << " ";
  270. out << static_cast<int>(d[5] * img.cols) << " ";
  271. out << static_cast<int>(d[6] * img.rows) << std::endl;
  272. }
  273. }
  274. } else if (file_type == "video") {
  275. cv::VideoCapture cap(file);
  276. if (!cap.isOpened()) {
  277. LOG(FATAL) << "Failed to open video: " << file;
  278. }
  279. cv::Mat img;
  280. int frame_count = 0;
  281. while (true) {
  282. bool success = cap.read(img);
  283. if (!success) {
  284. LOG(INFO) << "Process " << frame_count << " frames from " << file;
  285. break;
  286. }
  287. CHECK(!img.empty()) << "Error when read frame";
  288. std::vector<vector<float> > detections = detector.Detect(img);
  289.  
  290. /* Print the detection results. */
  291. for (int i = 0; i < detections.size(); ++i) {
  292. const vector<float>& d = detections[i];
  293. // Detection format: [image_id,ymax].
  294. CHECK_EQ(d.size(),7);
  295. const float score = d[2];
  296. if (score >= confidence_threshold) {
  297. out << file << "_";
  298. out << std::setfill('0') << std::setw(6) << frame_count << " ";
  299. out << static_cast<int>(d[1]) << " ";
  300. out << score << " ";
  301. out << static_cast<int>(d[3] * img.cols) << " ";
  302. out << static_cast<int>(d[4] * img.rows) << " ";
  303. out << static_cast<int>(d[5] * img.cols) << " ";
  304. out << static_cast<int>(d[6] * img.rows) << std::endl;
  305. }
  306. }
  307. ++frame_count;
  308. }
  309. if (cap.isOpened()) {
  310. cap.release();
  311. }
  312. } else {
  313. LOG(FATAL) << "Unknown file_type: " << file_type;
  314. }
  315. }
  316. return 0;
  317. }
  318. #else
  319. int main(int argc,char** argv) {
  320. LOG(FATAL) << "This example requires OpenCV; compile with USE_OPENCV.";
  321. }
  322. #endif // USE_OPENCV

配置C/C++环境变量

这一步很关键,缺少环境变量的话,eclipse无法识别C/C++函数,就连基本的cin和cout都会报错。

Windows->Preference->C/C++->Build->Enviroment添加两条环境变量:

  1. @H_301_32@C_INCLUDE_PATH=/usr/include
  2. @H_301_32@CPLUS_INCLUDE_PATH=/usr/include/c++/5.4.0

加载头文件

定位到:Project -> Properties ->C/C++ Build -> Settings ->GCC C++ Compiler -> Includes,然后在Include paths(-I)添加如下路径。

  1. /home/mx/caffe/include
  2. /home/mx/caffe/distribute/include
  3. /usr/local/cuda-7.5/include
  4. /usr/local/include
  5. /usr/local/include/opencv
  6. /usr/local/include/boost
  7. /usr/local/include/glog
  8. /usr/local/include/gflags

效果如下图所示:

加载库文件

首先定位到:Project -> Properties ->C/C++ Build -> Settings ->GCC C++ Linker -> Libraries,在Libraries(-I)添加所需的库,至于opencv,我只加载了程序引用的的3个库。

  1. caffe
  2. opencv_core
  3. opencv_highgui
  4. opencv_imgproc
  5. glog
  6. gflags
  7. boost_system

Library search path(-I)添加库路径。

  1. /home/mx/caffe/build/lib # caffe库路径
  2. /usr/local/cuda-7.5/lib # cuda库路径
  3. /usr/local/lib # opencv,boost,glog,gflags库路径

效果如下图所示:

然后定位到:Project -> Properties ->C/C++ Build -> Settings ->GCC C++ Linker -> Miscellaneous,在Other Objects添加程序所需的共享对象库。

  1. /home/mx/caffe/.build_release/lib/libcaffe.so
  2. /usr/local/lib/libboost_system.so
  3. /usr/local/lib/libglog.so
  4. /usr/local/lib/libgflags.so

然后在Other options添加如下语句.

  1. -R/usr/local/lib

效果如下图所示:

设置标志位参数

ssd_detect.cpp中定义了两个宏,分别控制是否使用opencv和是否使用cpu模式,这里我的选择是要使用opencv,不使用cpu模式(使用gpu)。那么定位到:Project -> Properties ->C/C++ Build -> Settings ->GCC C++ Compiler -> Preprocessor ,在Define symbols(-D)添加标志位。

  1. cpu_ONLY=0 # 感觉多余,我没添加,仍然为GPU模式
  2. USE_OPENCV=1 # 这条必要

运行程序

添加完头文件和库文件,就可以开始编译程序了:Project->Build Project,如果一切顺利,编译过程不会报错,最多有几个warning;如果有错,可以参看后文的常见错误总结。

编译成功,就可以运行程序了,由于此程序使用了argc和argv作为参数传递的入口,因此我们需要在eclipse中添加所需argv参数。在工程栏点击右键,定位到:Run as->Run Configurations,接着弹出菜单,在C/C++ Application->Auguments添加3条语句,分别作为argv[1][2][3](argv[0]是程序名,自动添加),如下图所示。

  1. /home/mx/caffe/models/VGGNet/VOC0712/SSD_300x300/deploy.prototxt # argv[1]
  2. /home/mx/caffe/models/VGGNet/VOC0712/SSD_300x300/VGG_VOC0712_SSD_300x300_iter_120000.caffemodel # argv[2]
  3. /home/mx/caffe/examples/images/list.txt # argv[3]

提示:list.txt文件每一行都是待检测图片的路径,比如/home/mx/caffe/examples/images/cat.jpg

添加参数后,点击Apply,接着点击Run,程序就可以运行了,博主的运行结果如下图。

至此,eclipse的caffe配置已经全部完成了,后面就可以根据此配置,进行单步调试,修改代码等等操作了。

常见错误总结

最后的最后,博主总结了网上和自己配置中常见的各种错误,以供参考,如出现新的错误类型也会跟新在博客中。

Error1:/usr/include/boost/system/error_code.hpp:222:‘boost::system::generic_category()' 未定义的引用

错误原因,没有在/usr/local安装boost库,请参考本文进行安装,并添加相应路径。


Error2: 'cublas_v2.h: No such file or directory'

错误原因,没有添加cuda的头文件和库文件添加了就不会报错。


Error3:**undefined reference to symbol '_ZN6google4base21CheckOpMessageBuilder7ForVar2Ev'

错误原因,程序找不到glog和gflags库,所以应该安装这两个库,并添加其路径。


Error4:/usr/lib/x86_64-linux-gnu/libglog.so.0: error adding symbols:DSO misssing from command line

错误原因,没有添加正确的glog共享对象库,应该在Miscellaneous->Other Objects中添加/usr/local/lib/libglog.so,同时Libraries(-I)中添加glog。


Error5:error while loading shared libraries :libcaffe.so.10.0-rc3:cannot open share

错误原因,缺失libcaffe.so.1.0.0-rc3库或者没有设置共享库路径,如果caffe中存在这个库,那么可以这样做:

  1. cd /etc/ld.so.conf.d
  2. sudo gedit caffe.conf
  3. # 打开的的conf文件加入/home/mx/caffe/.build_release/lib,保存退出
  4. sudo ldconfig

——————–分割线——————–

忙活半天,事后发现eclipse配置caffe环境的步骤真是繁琐,而使用Qt Creator进行配置则要简单得多,悔不该早日发现Qt这一神器,感觉身体被掏空。。。

猜你在找的Ubuntu相关文章