Caffe实践C++源码解读(1):如何跑demo

学习一种工具最简单和最有效的方法是download一个demo,根据教程模拟。Caffe作为深度学习框架,它也是一种工具,官方提供了一些demo,主要是在Caffe运行的网络架构文件。那么如何跑起一个demo呢?或者如何用demo直接做预测呢?

训练:caffe train –solver solver.txt 这样就可以了,如果有已训练好的参数或者进行学习迁移finetuning,那么训练的参数可以添加 “–weight init.caffemodel”或者”–snapshot snapshotfile.solvestate”

测试或预测:caffe test –weight test.caffemodel –model test.txt –iteration test_iteration

更加深入的理解,还要从源码出发,首先Caffe源码的tools目录下的caffe.cpp是生成可执行文件的源码,其中定义了train()和test()两个函数分别执行训练和测试,也可以自定义函数执行特定操作。

首先看train()函数:

  CHECK_GT(FLAGS_solver.size(), 0) << "Need a solver definition to train.";
  CHECK(!FLAGS_snapshot.size() || !FLAGS_weights.size())
      << "Give a snapshot to resume training or weights to finetune "
      "but not both.";

首先检查是否有solver.txt文件,文件名可自定义,但是内容必须符合solver结构,在src/caffe/proto/caffe.proto中有此定义。然后检查snapshot和weight,这两个参数分别用于中断后继续训练和学习迁移的。

参数检查完毕,caffe开始加载solver文件,之后是检查训练要工作在CPU还是GPU。

  caffe::SolverParameter solver_param;
  caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver, &solver_param);

工作设备设定后,根据加载的solver_param参数创建solver对象,并根据snapshot和weight参数加载模型参数,如果两个参数都没有设置,则模型根据提供的初始化类型或者默认值进行初始化。

shared_ptr<caffe::Solver<float> >
      solver(caffe::SolverRegistry<float>::CreateSolver(solver_param));

  solver->SetActionFunction(signal_handler.GetActionFunction());

  if (FLAGS_snapshot.size()) {
    LOG(INFO) << "Resuming from " << FLAGS_snapshot;
    solver->Restore(FLAGS_snapshot.c_str());
  } else if (FLAGS_weights.size()) {
    CopyLayers(solver.get(), FLAGS_weights);
  }

设置和初始化完成,就可以训练了。CPU版本的就是solver对象调用其Solver()函数。

  LOG(INFO) << "Starting Optimization";
  if (gpus.size() > 1) {
#ifdef USE_NCCL
    caffe::NCCL<float> nccl(solver);
    nccl.Run(gpus, FLAGS_snapshot.size() > 0 ? FLAGS_snapshot.c_str() : NULL);
#else
    LOG(FATAL) << "Multi-GPU execution not available - rebuild with USE_NCCL";
#endif
  } else {
    solver->Solve();
  }

再看test()函数:

首先也是检查solver文件和权值文件weight,但是此时weight必须提供,否则无法预测

  CHECK_GT(FLAGS_model.size(), 0) << "Need a model definition to score.";
  CHECK_GT(FLAGS_weights.size(), 0) << "Need model weights to score.";

然后检测当前平台是否支持GPU,如果支持,则默认使用GPU进行预测

// Set device id and mode
  vector<int> gpus;
  get_gpus(&gpus);
  if (gpus.size() != 0) {
    LOG(INFO) << "Use GPU with device ID " << gpus[0];
#ifndef CPU_ONLY
    cudaDeviceProp device_prop;
    cudaGetDeviceProperties(&device_prop, gpus[0]);
    LOG(INFO) << "GPU device name: " << device_prop.name;
#endif
    Caffe::SetDevice(gpus[0]);
    Caffe::set_mode(Caffe::GPU);
  } else {
    LOG(INFO) << "Use CPU.";
    Caffe::set_mode(Caffe::CPU);
  }

平台设定后,创建Net对象初始化预测的神经网络,然后使用weight参数初始化网络权值

  Net<float> caffe_net(FLAGS_model, caffe::TEST, FLAGS_level, &stages);
  caffe_net.CopyTrainedLayersFrom(FLAGS_weights);

然后就可以开始预测了

  for (int i = 0; i < FLAGS_iterations; ++i) {
    float iter_loss;
    const vector<Blob<float>*>& result =
        caffe_net.Forward(&iter_loss);
    loss += iter_loss;
    int idx = 0;
    for (int j = 0; j < result.size(); ++j) {
      const float* result_vec = result[j]->cpu_data();
      for (int k = 0; k < result[j]->count(); ++k, ++idx) {
        const float score = result_vec[k];
        if (i == 0) {
          test_score.push_back(score);
          test_score_output_id.push_back(j);
        } else {
          test_score[idx] += score;
        }
        const std::string& output_name = caffe_net.blob_names()[
            caffe_net.output_blob_indices()[j]];
        LOG(INFO) << "Batch " << i << ", " << output_name << " = " << score;
      }
    }
  }

主要是
caffe_net.
Forward
(&iter_loss);这一句,其他都是为了可视化的参数。

点赞