抽象,再抽象。 AutoML体验有感。
抽象这个词我真的是越来越喜欢了。小时候把看不懂的文字或者画叫抽象,虽然那些东西我现在依然不懂,但是现在对于抽象这两个字多少有点认识。本科的时候老师说“数学是自然科学的抽象”,我感触最深的就是线性代数,线性代数在之后的各个学科基本都有应用,大部分和维数有关的都可以用线性代数来表示。
抽象,再抽象。 AutoML体验有感。
抽象这个词我真的是越来越喜欢了。小时候把看不懂的文字或者画叫抽象,虽然那些东西我现在依然不懂,但是现在对于抽象这两个字多少有点认识。本科的时候老师说“数学是自然科学的抽象”,我感触最深的就是线性代数,线性代数在之后的各个学科基本都有应用,大部分和维数有关的都可以用线性代数来表示。
本次是MSBD5002的第二次作业,作业要求用MLP实现二分类和多分类的任务。多分类其实是对于图片分类,所以我也照着MNIST的CNNdemo改了个CNN的模型,CNN效果会好一点。但是由于数据集本身的原因,准确率没能上90%。
上一次写神经网络应该还是大三的时候学TensorFlow,当时学了也没怎么用,最近作业需要pytorch,刚好整理一下pytorch的入门第一讲。
pytorch和numpy在很多地方相似,使用简单,最近使用量有超过TF的势头。
这一节通过对于一个简单的numpy网络,一步一步改进使用pytorch的高级接口。
这节主要是介绍project的要求,也重新提到了LSTM,GRU,还有一些trick. 比较杂。
这篇文章是帮DataFunTalk社区整理的讲稿,也就是把展示的内容写成文字,挺费时间的,还好是比较感兴趣的话题。最后也学到了一些模型迭代的思路。
这个分享对我启发最大的是召回源完全可以当做特征加到排序里啊!!!我之前实习的时候,只想的是通过模型改变召回源的数量,从而控制下发的比例,真的太傻了5555
算法理解了就很简单,写代码也容易,但是表达清楚原理就很麻烦。如果没看懂就去看大神的博客吧。
分治法其实很常见,在并归排序的过程也用上了。
接下来举一个例子:
https://blog.csdn.net/weixin_37540865/article/details/78201399。
这一节因为RNN梯度消失引入了LSTM,GRU。LSTM和GRU的构造思想都是在RNN的主线内,并行一条线,传递其他信息。解决梯度问题,也可以在cell外加一条线,比如双向RNN,多层RNN。
RNN的梯度消失与爆炸:
原因:由于Wh的权值共享,当Wh的最大特征值大于大于小于1 就会造成$W_h^n$的指数,所以造成梯度消失或者爆炸