资源简介
BAT机器学习面试1000题系列 1
前言 1
BAT机器学习面试1000题系列 2
1 归一化为什么能提高梯度下降法求解最优解的速度? 22
2 归一化有可能提高精度 22
3 归一化的类型 23
1)线性归一化 23
2)标准差标准化 23
3)非线性归一化 23
35. 什么是熵。机器学习 ML基础 易 27
熵的引入 27
3.1 无偏原则 29
56. 什么是卷积。深度学习 DL基础 易 38
池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40
随机梯度下降 46
批量梯度下降 47
随机梯度下降 48
具体步骤: 50
引言 72
1. 深度有监督学习在计算机视觉领域的进展 73
1.1 图像分类(Image Classification) 73
1.2 图像检测(Image Dection) 73
1.3 图像分割(Semantic Segmentation) 74
1.4 图像标注–看图说话(Image Captioning) 75
1.5 图像生成–文字转图像(Image Generator) 76
2.强化学习(Reinforcement Learning) 77
3深度无监督学习(Deep Unsupervised Learning)–预测学习 78
3.1条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN) 79
3.2 视频预测 82
4 总结 84
5 参考文献 84
一、从单层网络谈起 96
二、经典的RNN结构(N vs N) 97
三、N VS 1 100
四、1 VS N 100
五、N vs M 102
Recurrent Neural Networks 105
长期依赖(Long-Term Dependencies)问题 106
LSTM 网络 106
LSTM 的核心思想 107
逐步理解 LSTM 108
LSTM 的变体 109
结论 110
196. L1与L2范数。机器学习 ML基础 易 163
218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中 178
@李振华,https://www.zhihu.com/question/68109802/answer/262143638 179
219. 请比较下EM算法、HMM、CRF。机器学习 ML模型 中 179
223. Boosting和Bagging 181
224. 逻辑回归相关问题 182
225. 用贝叶斯机率说明Dropout的原理 183
227. 什么是共线性, 跟过拟合有什么关联? 184
共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。 184
共线性会造成冗余,导致过拟合。 184
解决方法:排除变量的相关性/加入权重正则。 184
勘误记 216
后记 219
代码片段和文件信息
- 上一篇:rabbitmq-server-3.7.12
- 下一篇:自主设计平衡车PCB板
相关资源
- machine learning ex4
- MyBatis的关联映射
- MyBatis数据库操作与核心配置(含源码
- 阿里云机器学习组件PAI用户手册
- 斯坦福大学机器学习课程
- PDF已勘误经典书籍PRML马春鹏译版_模式
- 软件测试面试题100道精讲
- PRML最最最完整版答案
- 北航机器学习期末考试往年试题
- 模式识别与机器学习 国科大 黄庆明
- Algorithms for Reinforcement Learning 强化学习
- 网络安全中的数据挖掘方法与机器学
- 异常检测与机器学习
- cs229原版讲义
- springboot + shiro + mybatis-plus + beetl后台管
- 线性回归预测PM2.5包括代码详解
- 时空建模分析及应用
- Applied Logistic Regression (3rd Edition)
- 机器学习的课件哈工大
- Optimization for Machine Learning 机器学习优
- Probability Theory and Examples 5th R. Durrett
- MyBatis+Spring实现对用户增删改查
- sapfico面试问题集锦全英文版SAP ® ER
- 《企业级 AIOps 实施建议》白皮书-V0
- Neural networks and deep learning pdf 英文版
- 《模式识别与机器学习》黄庆明2016
- 模式识别与机器学习课后习题答案
- 机器学习和遗传算法的结合推荐必读
- 分布式机器学习
- 数据挖掘概念与技术答案汇总
评论
共有 条评论