机器学习常见算法分类汇总

堆栈式机器学习常见算法分类汇总
转⾃,有少许修改。
机器学习起源于⼈⼯智能,可以赋予计算机以传统编程所⽆法实现的能⼒,⽐如飞⾏器的⾃动驾驶、⼈脸识别、计算机视觉和数据挖掘等。机器学习的算法很多。很多时候困惑⼈们的是,很多算法是⼀类算法,⽽有些算法⼜是从其他算法中延伸出来的。这⾥,我们从两个⽅⾯来给⼤家介绍,第⼀个⽅⾯是学习的⽅式,第⼆个⽅⾯是算法的类似性。
学习⽅式
将算法按照学习⽅式分类可以让⼈们在建模和算法选择的时候考虑能根据输⼊数据来选择最合适的算法来获得最好的结果。
监督学习
在监督学习中,输⼊数据被称为“训练数据”,每组训练数据有⼀个明确的类标。在建⽴预测模型的时候,监督学习建⽴⼀个学习过程,将预测结果与“训练数据”的实际结果进⾏⽐较,不断的调整预测模型,直到模型的预测结果达到⼀个预期的准确率。
监督式学习的常见应⽤场景如分类问题和回归问题。常见算法有Linear Regression,Logistic Regression,Neural Network,SVMs。⾮监督学习
在⾮监督学习中,数据并未被特别标识,学习模型是为了推断出数据的⼀些内在结构。
常见的应⽤场景包括关联规则的学习以及聚类等。常见算法包括K-means Clustering ,Principal Component Analysis和Anomaly Detection。
在此学习⽅式下,输⼊数据部分被标识,部分没有被标识,这种学习模型可以⽤来进⾏预测,但是模型⾸先需要学习数据的内在结构以便合理的组织数据来进⾏预测。应⽤场景包括分类和回归,算法包括⼀些对常⽤监督式学习算法的延伸,这些算法⾸先试图对未标识数据进⾏建模,在此基础上再对标识的数据进⾏预测。如图论推理算法(Graph Inference)或者拉普拉斯⽀持向量机(Laplacian SVM.)等。
强化学习
在强化学习(Reinforcement Learning)中,输⼊数据作为对模型的反馈,不像监督模型那样,输⼊数据仅仅是作为⼀个检查模型对错的⽅式。在强化学习中,输⼊数据直接反馈到模型,模型必须对此⽴刻作出调整。常见的应⽤场景包括动态系统以及机器⼈控制等。常见算法包括Q-Learning以及时间差学习(Temporal difference learning)。
在企业数据应⽤的场景下, ⼈们最常⽤的可能就是监督式学习和⾮监督式学习的模型。 在图像识别等领域,由于存在⼤量的⾮标识的数据和少量的可标识数据, ⽬前半监督式学习是⼀个很热的话题。 ⽽强化学习更多的应⽤在机器⼈控制及其他需要进⾏系统控制的领域。
算法类似性
回归算法
小牛血清去蛋白注射液
回归算法是试图采⽤对误差的衡量来探索变量之间的关系的⼀类算法。回归算法是统计机器学习的利器。在机器学习领域,⼈们说起回归,有时候是指⼀类问题,有时候是指⼀类算法,这⼀点常常会使初学者有所困惑。常见的回归算法包括:最⼩⼆乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元⾃适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)。
基于核的算法中最著名的莫过于⽀持向量机(SVM)了。 基于核的算法把输⼊数据映射到⼀个⾼阶的向量空间, 在这些⾼阶向量空间⾥,有些分类或者回归问题能够更容易的解决。 常见的基于核的算法包括:⽀持向量机(Support Vector Machine, SVM), 径向基函数(Radial Basis Function ,RBF), 以及线性判别分析(Linear Discriminate Analysis ,LDA)等.离心离合器
聚类算法
聚类,就像回归⼀样,有时候⼈们描述的是⼀类问题,有时候描述的是⼀类算法。聚类算法通常按照中⼼点或者分层的⽅式对输⼊数据进⾏归并。所以的聚类算法都试图到数据的内在结构,以便按照最⼤的共同点将数据进⾏归类。常见的聚类算法包括 k-Means算法以及期望最⼤化算法(Expectation Maximization, EM)。
降维算法
毛刷制作
像聚类算法⼀样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以⾮监督学习的⽅式试图利⽤较少的信息来归纳或者解释数据。这类算法可以⽤于⾼维数据的可视化或者⽤来简化数据以
便监督式学习使⽤。常见的算法包括:主成份分析(Principle Component Analysis, PCA),偏最⼩⼆乘回归(Partial Least Square Regression,PLS)。
集成算法⽤⼀些相对较弱的学习模型独⽴地就同样的样本进⾏训练,然后把结果整合起来进⾏整体预测。集成算法的主要难点在于究竟集成哪些独⽴的较弱的学习模型以及如何把学习结果整合起来。这是⼀类⾮常强⼤的算法,同时也⾮常流⾏。常见的算法包括:Boosting,Bootstrapped Aggregation(Bagging), AdaBoost,随机森林(Random Forest)等。(竞赛中多⽤到该类算法,效果较好)
基于实例的算法
基于实例的算法常常⽤来对决策问题建⽴模型,这样的模型常常先选取⼀批样本数据,然后根据某些近似性把新数据与样本数据进⾏⽐较。通过这种⽅式来寻最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。常见的算法包括 k-Nearest Neighbor(KNN), 学习⽮量量化(Learning Vector Quantization, LVQ),以及⾃组织映射算法(Self-Organizing Map ,SOM).
决策树学习
透镜设计
决策树算法根据数据的属性采⽤树状结构建⽴决策模型, 决策树模型常常⽤来解决分类和回归问题。常见的算法包括:分类及回归树(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, 随机森林(Random Forest)等。
贝叶斯⽅法
贝叶斯⽅法算法是基于贝叶斯定理的⼀类算法,主要⽤来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,以及Bayesian Belief Network(BBN)。
⼈⼯神经⽹络算法模拟⽣物神经⽹络,是⼀类模式匹配算法。通常⽤于解决分类和回归问题。它是机器学习的⼀个庞⼤的分⽀。重要的⼈⼯神经⽹络算法包括:感知器神经⽹络(Perceptron Neural Network), 反向传递(Back Propagation), Hopfield⽹络,⾃组织映射(Self-Organizing Map, SOM)。(现在的深度学习就是由⼈⼯神经⽹络发展⽽来)
电源线扣
深度学习
常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷积⽹络(Convolutional Network), 堆栈式⾃动编码器(Stacked Auto-encode
rs)。(发展⾄⽬前,最成功的当属CNN和LSTM。)

本文发布于:2024-09-22 21:19:57,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/2/337434.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:算法   学习   数据   模型   包括
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议