网站制作详细流程,qq空间关闭申请网站,湖南网站建设优化,商店网站制作这两天啊#xff0c;有不少朋友和我说#xff0c;想学机器学习#xff0c;但是之前没有基础#xff0c;不知道能不能学得会。
首先说结论#xff0c;只要坚持#xff0c;就能学会#xff0c;但是一定不能三天打鱼两天晒网#xff0c;要持之以恒#xff0c;至少每隔两…
这两天啊有不少朋友和我说想学机器学习但是之前没有基础不知道能不能学得会。
首先说结论只要坚持就能学会但是一定不能三天打鱼两天晒网要持之以恒至少每隔两天必须得看一点。所以呀我整理了关于机器学习各种内容的资料跟大家一起看一看从零基础入门想要学会深度学习到底需要多长时间呢 首先声明没有广告没有广告没有广告
接下来呢咱们就进入正题要多久能学会也就是基本掌握机器学习。这里我们依次来看。
想要直接学深度学习的同学直接移步第二部分
传统机器学习
Python 10-20天
首先要说咱们传统的机器学习我们现在的机器学习呢尤其是后面的深度学习都是用python来写的所以学会python一定是必不可少的。
需要掌握到什么程度呢基础语法全部要掌握进阶语法部分元组字典这些结构要掌握列表生成器也要掌握面向对象的Python更是十分重要。同时对于python的numpy库一定要了如指掌pandas库最好也有一定了解。这一部分大概十到二十天。
线性回归和K近邻算法 5天
学会python以后就可以开始上手机器学习了线性回归和K近邻算法是两个最简单、最好实现的机器学习算法了学会这两个大概5天时间是完全可以完成的。
SVM支持向量机 3天
支持向量机主要用于分类和回归任务。它的基本原理是通过在特征空间中找到一个最优的超平面来进行分类或回归。
具体来说SVM 的核心思想是找到能够将不同类别的数据点分隔开的最佳决策边界超平面。这个决策边界被定义为能够使得两个类别的间隔Margin最大化的超平面。支持向量机的名称来源于在确定这个决策边界时只有一部分数据点对决策边界有贡献这些数据点被称为支持向量Support Vectors。
决策树与随机森林 5天
这一部分内容啊需要对数据结构中的树结构稍有了解多一点时间需要学一学数据结构。
决策树是一种树形结构每个非叶子节点表示一个特征属性测试每个分支代表测试结果的一个可能的输出最终的叶子节点代表分类或者回归的结果。随机森林是通过集成多棵决策树来提高预测准确性的方法。每棵决策树由不同的随机样本和随机特征组成通过投票或者平均来确定最终的预测结果。
聚类算法 7天
主要目标是将数据集中的样本分成若干组使得组内的样本彼此更加相似而组间的样本差异较大。聚类算法通常用于数据探索、数据分析、模式识别以及预处理阶段。聚类算法可以细分为许多种算法如K均值聚类、层次聚类。所以这一部分内容花稍微多一点时间是必要的。
降维算法 7天
降维算法是一类常用于高维数据分析和可视化的技术其主要目的是减少数据特征的数量同时保留数据中最重要的信息。通过降低数据维度可以减少存储空间的需求、简化数据计算复杂度并且有助于发现数据的内在结构和模式。
深度学习
近些年chat-GPT兴起深度学习爆火。许多人想要直接入门深度学习不想看机器学习这样做完全可以那么深度学习都有哪些东西呢
浅层神经网络 5天
主要包括线性回归没错如果你直接上手深度学习没有学机器学习这一部分还是要学的如果之前学过机器学习这部分直接跳过以及Softmax回归这两个内容。他们两个是最基本的神经网络类型适用于分类和回归问题。
这部分内容比较基础比较简单但是十分重要一定要好好学。五天时间完全可以熟练掌握了
多层感知机 2天
实际上是线性回归和Softmax的一个深度化本质没有区别只是加了隐藏层2天足矣。
卷积神经网络 10天
学到这里的话恭喜你已经接触到真正的深度学习了卷积神经网络主要用于处理图像数据通过局部感受野和权值共享来有效地提取特征。在计算机视觉任务中表现优异如图像分类、物体检测和图像分割。
这一部分有难度也很重要时间多一点
现代卷积神经网络 7天
卷积神经网络升级版现代版更新版结构更复杂效果更厉害
这部分内容多且杂如LeNetAlexNetNiNVGGResNetGoogLeNet。
需要注意的是NiN和LeNetResNet三者是最重要的也许你现在不知道他们是什么但是一定要记住他们最重要
这部分难度很高如果你学习时感到有些疲倦那是十分正常的适当休息劳逸结合
循环神经网络 10天
非常重要非常重要非常重要
所谓循环神经网络就是具有循环连接的神经网络适用于处理序列数据如自然语言处理和时间序列预测。这部分不求快但求稳一定要把每个点都弄明白这至关重要
现代循环神经网络 10天
这部分包含GRULSTMseq2seq等一系列内容全部建立在循环神经网络之上这就是为什么我说循环神经网络非常非常重要这一部分也十分重要他们是现代语言处理的常用模型。
注意力机制 10天
注意力机制是一种模拟人类注意力机制的方法最初在神经网络领域得到广泛应用特别是在自然语言处理和计算机视觉任务中取得了显著的成果。注意力机制的主要目的是在处理序列数据或高维数据时有效地捕捉输入中不同部分之间的关系从而提升模型的性能和表现力。
如果前面非常掌握非常熟练那么这部分手到擒来如果学到这里忘了前面没关系别着急回去看看循环神经网络然后再来看这部分内容。
学到这已经十分现代了其中transformer的模型是2017年才提出的
注意力之后...
走到这一步恭喜你你已经能看懂许多机器学习的论文了相信你也对很多领域有了不少了解。那么找到自己喜欢的领域看一看最新的论文学一学最最前沿最最先进的知识保持好奇心和学习的激情将会为你在机器学习和人工智能领域的发展道路上开辟更加广阔的可能性。