SVM支持向量机详解 


支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器, 线性分类器也称为超平面,SVM的的学习策略就是超平面间隔最大化,从而具备很好的泛化功能,引入核函数后,将特征空间映射成高维度向量,SVM也可以实现对非线性数据分类。
常规算法

SVD奇异值分解


SVD 奇异值分解是一种提取信息的强大工具,奇异值分解在数据降维中有较多的应用,它提供了一种非常便捷的矩阵分解方式,能够发现数据中十分有意思的潜在模式。
数学建模

逻辑回归详解


逻辑回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。逻辑回归从本质来说属于二分类问题。
常规算法

矩阵/向量/标量间相互求导


矩阵、向量本质是多元函数求导,在机器学习、统计学中大量使用向量对向量求导、向量对标量求导、矩阵对矩阵求导等,熟练掌握矩阵、向量求导是学习人工智能算法必备技能。
数学建模

NMF非负矩阵分解


NMF是在矩阵中所有元素均为非负数约束条件之下的矩阵分解方法,一方面科学研究中的很多大规模数据的分析方法需要通过矩阵形式进行有效处理,而NMF思想则为人类处理大规模数据提供了一种新的途径;另一方面,NMF分解算法相较于传统的一些算法而言,具有实现上的简便性、分解形式和分解结果上的可解释性,以及占用存储空间少等诸多优点。通过矩阵分解,将描述问题的矩阵的维数进行削减,实现对大量的数据进行压缩和提取主要特征。
常规算法

DNN-全连接神经网络


全连接神经网络(DNN)的结构一般由输入层、隐藏层和输出层组成,全连接神经网络这种结构方式也成为多层感知机(MLP),DNN几乎可以拟合任何函数,其非线性拟合能力非常强,可以很容易的实现样本数据分类,通过反向传算法导利用梯度下降法可实现神经网络参数的训练。
神经网络

CNNs-卷积神经网络


深度卷积神经网络是当前最流行的神经网络,卷积神经网络目前在很多很多研究领域取得了巨大的成功,例如: 语音识别,图像识别,图像分割,自然语言处理等。基础的CNN由卷积(convolution), 激活(activation), and 池化(pooling)三种结构组成,通过感受野、权值共享并结合反向传播算法不仅提高了模型鲁棒性还大大降低了训练参数规模、缩短训练时间。
神经网络

RNN-循环神经网络(上)


循环神经网络是一类以序列数据为输入的的递归神经网络,循环神经网络在自然语言处理,例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报,引入了卷积神经网络构筑的循环神经网络可以处理包含序列输入的计算机视觉问题。
神经网络

LSTM-循环神经网络(下)


LSTM(长短时记忆网络)是循环神经网络的一种,通过遗忘门、输入门、侯选门、输出门更新细胞状态,LSTM较好的解决了RNN的长时间依赖问题,比起诸如隐马尔科夫链等时序分析模型,LSTM有非常高的拟合能力。
神经网络

生成对抗网络


生成对抗网络简称GAN,是由两个网络组成的,一个生成器网络和一个判别器网络,两个网络通过博弈使双方能力提升,GAN的应用很多,利用GAN可以生成高质量的图像,可以增强照片,可以从文本生成图像,本篇详细介绍GAN及其几种变体,DGAN\CGAN等。
神经网络