您还没有登录,请登录后阅读
机器学习算法与自然语言处理之精选|机器学习干货文章精选
43篇
11人在读
公众号:机器学习算法与自然语言处理
关注公众号
目录
摘录
- 机器学习算法与自然语言处理之精选|机器学习干货文章精选
机器学习算法与自然语言处理之精选|机器学习干货文章精选
- 换个角度“聊”线性代数(一)
- 形象的解释神经网络激活函数的作用是什么?
- 通俗理解神经网络BP反向传播算法
- 为什么梯度反方向是函数下降最快的方向?
- 浅析神经网络为什么能够无限逼近任意连续函数?
- 详解梯度下降法的三种形式BGD,SGD以及MBGD
- 一文搞懂k近邻(k-NN)算法(一)
- 完结篇|一文搞定k近邻算法(k-NN)算法(二)
- 通俗详解softmax函数及其求导过程
- 大白话解释模型产生过拟合的原因
- 通俗讲解平方损失函数平方形式的数学解释?
- 朴素贝叶斯分类实例-单词纠正问题
- 谈谈准确率(P值)、召回率(R值)及F值
- 浅析神经网络中一点优化知识
- 可视图讲解神经元w,b参数的作用
- 聊聊传统算法系统和机器学习系统的一点不同
- 深入浅出理解决策树算法(一)-核心思想
- 深入浅出理解决策树算法(二)-ID3算法与C4.5算法
- 隐马尔科夫模型-基本模型与三个基本问题
- 隐马尔科夫模型-前向算法
- 机器学习中向量化编程总结记录
- 干货|如何处理不均衡数据?
- logistic函数和softmax函数
- 最优化问题的简介介绍是什么?
- 为什么要对数据进行归一化处理?
- 通俗理解激活函数的另一种解释
- 花式解释AutoEncoder与VAE
- 干货|最详尽的神经网络基础
- 梯度下降法的三种形式BGD、SGD以及MBGD
- 评测时如何构造训练数据分布与测试数据分布保持一致
- 为什么梯度的方向与等高线切线方向垂直?
- 干货|SVM(一)·最全面的感知机总结
- 干货|非常详细的神经网络入门解释
- 干货|非常通俗的朴素贝叶斯算法(Naive Bayes)
- 【西瓜书】周志华《机器学习》学习笔记与习题探讨(一)
- 最大似然估计与最小二乘法的一点浅见
- 干货|通俗讲解高斯过程回归
- 干货|详解LinearSVM
- Python · SVM(三)· 核方法
- 干货|用讲故事的办法帮你理解SMO算法
- 干货|给妹纸的深度学习教学(0)——从这里出发
- 干货|感知机更新算法正确性的直观理解
所有文章
加载更多
本站仅按申请收录合集,版权归原作者所有
如若侵权,请联系本站删除