构建神经网络——深度学习模型的基本步骤 不同场景的深度学习模型具备一定的通用性,均可以从下述五个步骤来完成模型的构建和训练。 数据处理:从本地文件或网络地址读取数据,并做预处理操作,如校验数据的正确性等。 模型设计:完成…
分类:深度学习
机器学习 | K近邻算法
由于近期学业繁重QAQ,所以我就不说废话了,直接上代码~ 使用K近邻算法改进约会网站 from numpy import * import operator import matplotlib import matplo…
一文理解拉格朗日对偶和KKT条件
一. 最优化问题求解 1. 等式约束的极值求法 $$ \begin{gather*} \underset{t}{min} f(t) \; s.t.\; h_i(t)=0,i=1,\cdots,p \end{gather*…
用ADMM实现统计学习问题的分布式计算
最近研读了 Boyd 2011 年那篇关于 ADMM 的综述。我从这篇综述里整理出了一个条思路,顺着这个思路看下去,就能对 ADMM 原理和应用有个大概的了解。因此,此文可以当做 ADMM 的快速入门。 交替方向乘子法(…
学习笔记TF067:TensorFlow Serving、Flod、计算加速,机器学习评测体系,公开数据集
TensorFlow Serving https://tensorflow.github.io/… 。 生产环境灵活、高性能机器学习模型服务系统。适合基于实际数据大规模运行,产生多个模型训练过程。可用于开发环…
简单的三层神经网络
参照《Python神经网络编程》写一个简单的三层神经网络 #!/usr/bin/env python # coding: utf-8 import numpy # sigmoid 函数 import scip…
关于feature map, 神经元个数,可训练参数个数, 卷积核大小 的一些总结
参考这个文章的部分笔记和理解: http://blog.csdn.net/dcxhun3/article/details/46878999 输入input: 32 x 32 的图像 使用: &nbs…
学习笔记TF061:分布式TensorFlow,分布式原理、最佳实践
分布式TensorFlow由高性能gRPC库底层技术支持。Martin Abadi、Ashish Agarwal、Paul Barham论文《TensorFlow:Large-Scale Machine Learning…
学习笔记DL005:线性相关、生成子空间,范数,特殊类型矩阵、向量
线性相关、生成子空间。 逆矩阵A⁽-1⁾存在,Ax=b 每个向量b恰好存在一个解。方程组,向量b某些值,可能不存在解,或者存在无限多个解。x、y是方程组的解,z=αx+(1-α),α取任意实数。 A列向量看作从原点(or…
学习笔记TF065:TensorFlowOnSpark
Hadoop生态大数据系统分为Yam、 HDFS、MapReduce计算框架。TensorFlow分布式相当于MapReduce计算框架,Kubernetes相当于Yam调度系统。TensorFlowOnSpark,利用…
信息论(二):随机变量的信息度量
1.信息与信源 信源发出的消息在未收到前是不确定的随机过程,可以用随机变量描述,或者说用一个样本空间及其概率测度来描述信源。信源分为离散信源和连续信源。 离散信源:可用离散型随机变量来表示,信源常记作:$X = \{x_…
【手撕 - 自然语言处理】手撕 FastText 源码(01)分类器的预测过程
作者:LogM 本文原载于 https://segmentfault.com/u/logm/articles ,不允许转载~ 1. 源码来源 FastText 源码:https://github.com/facebook…