本文作者:qweasjd

统计机器学习应用,

qweasjd 05-08 5
统计机器学习应用,摘要: 大家好,今天小编关注到一个比较有意思的话题,就是关于统计机器学习应用的问题,于是小编就整理了2个相关介绍统计机器学习应用的解答,让我们一起看看吧。《神经网络和机器学习》,PRML,...

大家好,今天小编关注到一个比较意思的话题,就是关于统计机器学习应用问题,于是小编就整理了2个相关介绍统计机器学习应用的解答,让我们一起看看吧。

  1. 《神经网络和机器学习》,PRML,周志华的《机器学习》和李航《统计机器学习》请各位推荐学习顺序?
  2. 现在的机器学习等于统计学吗?

神经网络和机器学习》,PRML,周志华的《机器学习》和李航《统计机器学习》请各位推荐学习顺序?

建议直接从 scikit learn ***,keras ***开始学习,有代码例子,里边都附带训练数据集。

不要以英语不好为借口,搞机器学习,流行的库都是英文的,真正做相关研发,读懂api 是必须的。

至于学习顺序,入门网上有许多 tutorial, 和 introduction.

不推荐《机器学习》西瓜

缺点:

1.章节覆盖知识比较多, 但是大多都不够深入, 比如线性回归(正则化和广义线性模型一句话带过?)

2.公式杂乱, 符号乱用, 不遵守规约

3.逻辑混乱, 轻重不分, 比如决策树剪枝全篇都在讲西瓜, 居然没有公式支撑? SVM间隔, 对偶, 核, 软间隔穿插hinge损失? 正常逻辑不应该是硬间隔, 软间隔, hinge损失最小二乘, 核函数吗? SMO一页带过, 罗列了几个公式, 根本没讲清楚

4.其它书里没有的东西, 西瓜书里大概率也没有, 其它书里有的, 西瓜书里也不一定有;其它书里你看懂的东西, 回到这本书里大概率又会懵逼(公式符号不标准, 大篇毫无意义的叙述, 叙述逻辑混乱)

优点: 彩印, 看起来赏心悦目

这三本书我都看过,其中难度最低的是周的机器学习,阁下问题中的《统计机器学习》应该是《统计学方法》吧,是一本需要比较强的数理功底的书,主要要掌握微积分,概率论和线性代数,看起来才不会太过吃力,建议放在最后。

因为西瓜书偏简单,偏重思想,对于数学公式的数量要比《统计学习方法》少,所以我个人认为可以用周志华的书作为入门,好好理解一下算法的主体思想,逻辑,然后再去看李航的书,会简单一些,至于神经网络与机器学习我个人认为可以第二本阅读或者放在最后,它的数学公式我觉得比李航老师的更详细移动如果你想先仔细学习数理内容那就先神经网络与机器学习,也可以把它当做最后总复习的时候使用

如果为了应付面试,李航老师的书应当作为主要的,面试机器学习工程师的话基本就是推算法,写代码。

如果是为了学习,我个人经验是去技术博客里多搜索一些细节,比如关于L1 ,L2正则,梯度下降,随机梯度下降,批量梯度下降,再比如深度神经网络中梯度弥散和梯度爆炸问题,以及gbdt,xgboost这些内容,其实书上讲的很有限,书上的一章三四十页最多了,然而仔细展开的话远远不止,如果真想做这个方向,算法的原理,细节应当炉火纯青,这样才能在实务中针对实用的模型的优势劣势,出现的问题进行考察。

共勉!

现在的机器学习等于统计学吗?

我认为说深度学习为包装后的统计学有一定道理。以卷积神经网络resnet为例,每个卷积核相当于一个滤波器,只提取它所表征的特征,每个卷积核在图象上扫过一次之后,生成一个feature map(我认为就是抽象层面的图像),然后n个卷积核,就产生n个feature map,这就是一张抽象的图片,然后再重复这个过程,只不过随着层数的加深,每个卷积核所提取的特征更加抽象,我们无法理解罢了。经过一层层变换之后,最终生成了n个feature map,每个feature map表征一种抽象特征。最后经过global ***erage pooling,生成一个n维向量,这个向量的每一维表征一个feature map(相当于用均值来代替)。从这个层面讲,最后的特征向量有点类似于特征直方图,每一维表示对应特征的强度。那么说深度学习是包装后的统计学还是有一定道理。

但是,深度学习所提取的特征都是经过大量数据(比如图片)调整得到的,更适应这批数据,所以会比人为设计的特征效果好。

这恰恰揭示了为什么深度学习迁移能力差。比如我有一个类别的图片全部是横着放的笔,训练得到一个模型,当有一张图片,里面的笔是竖着放的,很有可能模型就无法识别,因为横着的笔的图片所具有的边缘特征,都是横着的,而竖着的笔的边缘特征是竖着的,统计差异就很大了。

就目前工业界广泛使用的模型来说,离真正的人工智能还差距甚远~

到此,以上就是小编对于统计机器学习应用的问题就介绍到这了,希望介绍关于统计机器学习应用的2点解答对大家有用。

阅读
分享