学习一种工具最简单和最有效的方法是download一个demo,根据教程模拟。Caffe作为深度学习框架,它也是一种工具,官方提供了一些demo,主要是在Caffe运行的网络架构文件。那么如何跑起一个demo呢?或者如何用demo直接做预测呢?
训练:caffe train –solver solver.txt 这样就可以了,如果有已训练好的参数或者进行学习迁移finetuning,那么训练的参数可以添加 “–weight init.caffemodel”或者”–snapshot snapshotfile.solvestate”
测试或预测:caffe test –weight test.caffemodel –model test.txt –iteration test_iteration
更加深入的理解,还要从源码出发,首先Caffe源码的tools目录下的caffe.cpp是生成可执行文件的源码,其中定义了train()和test()两个函数分别执行训练和测试,也可以自定义函数执行特定操作。
首先看train()函数:
CHECK_GT(FLAGS_solver.size(), 0) << "Need a solver definition to train.";
CHECK(!FLAGS_snapshot.size() || !FLAGS_weights.size())
<< "Give a snapshot to resume training or weights to finetune "
"but not both.";
首先检查是否有solver.txt文件,文件名可自定义,但是内容必须符合solver结构,在src/caffe/proto/caffe.proto中有此定义。然后检查snapshot和weight,这两个参数分别用于中断后继续训练和学习迁移的。
参数检查完毕,caffe开始加载solver文件,之后是检查训练要工作在CPU还是GPU。
caffe::SolverParameter solver_param;
caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver, &solver_param);
工作设备设定后,根据加载的solver_param参数创建solver对象,并根据snapshot和weight参数加载模型参数,如果两个参数都没有设置,则模型根据提供的初始化类型或者默认值进行初始化。
shared_ptr<caffe::Solver<float> >
solver(caffe::SolverRegistry<float>::CreateSolver(solver_param));
solver->SetActionFunction(signal_handler.GetActionFunction());
if (FLAGS_snapshot.size()) {
LOG(INFO) << "Resuming from " << FLAGS_snapshot;
solver->Restore(FLAGS_snapshot.c_str());
} else if (FLAGS_weights.size()) {
CopyLayers(solver.get(), FLAGS_weights);
}
设置和初始化完成,就可以训练了。CPU版本的就是solver对象调用其Solver()函数。
LOG(INFO) << "Starting Optimization";
if (gpus.size() > 1) {
#ifdef USE_NCCL
caffe::NCCL<float> nccl(solver);
nccl.Run(gpus, FLAGS_snapshot.size() > 0 ? FLAGS_snapshot.c_str() : NULL);
#else
LOG(FATAL) << "Multi-GPU execution not available - rebuild with USE_NCCL";
#endif
} else {
solver->Solve();
}
再看test()函数:
首先也是检查solver文件和权值文件weight,但是此时weight必须提供,否则无法预测
CHECK_GT(FLAGS_model.size(), 0) << "Need a model definition to score.";
CHECK_GT(FLAGS_weights.size(), 0) << "Need model weights to score.";
然后检测当前平台是否支持GPU,如果支持,则默认使用GPU进行预测
// Set device id and mode
vector<int> gpus;
get_gpus(&gpus);
if (gpus.size() != 0) {
LOG(INFO) << "Use GPU with device ID " << gpus[0];
#ifndef CPU_ONLY
cudaDeviceProp device_prop;
cudaGetDeviceProperties(&device_prop, gpus[0]);
LOG(INFO) << "GPU device name: " << device_prop.name;
#endif
Caffe::SetDevice(gpus[0]);
Caffe::set_mode(Caffe::GPU);
} else {
LOG(INFO) << "Use CPU.";
Caffe::set_mode(Caffe::CPU);
}
平台设定后,创建Net对象初始化预测的神经网络,然后使用weight参数初始化网络权值
Net<float> caffe_net(FLAGS_model, caffe::TEST, FLAGS_level, &stages);
caffe_net.CopyTrainedLayersFrom(FLAGS_weights);
然后就可以开始预测了
for (int i = 0; i < FLAGS_iterations; ++i) {
float iter_loss;
const vector<Blob<float>*>& result =
caffe_net.Forward(&iter_loss);
loss += iter_loss;
int idx = 0;
for (int j = 0; j < result.size(); ++j) {
const float* result_vec = result[j]->cpu_data();
for (int k = 0; k < result[j]->count(); ++k, ++idx) {
const float score = result_vec[k];
if (i == 0) {
test_score.push_back(score);
test_score_output_id.push_back(j);
} else {
test_score[idx] += score;
}
const std::string& output_name = caffe_net.blob_names()[
caffe_net.output_blob_indices()[j]];
LOG(INFO) << "Batch " << i << ", " << output_name << " = " << score;
}
}
}
主要是
caffe_net.
Forward
(&iter_loss);这一句,其他都是为了可视化的参数。