百度站长工具怎么查排名,阿里企业邮箱电话,上海网站建设品牌,网站建设如何查看后台数据库目录 机器学习的本质机器学习的类型Regression/回归Classification/分类Structured Learning/结构化学习 ML的三板斧设定范围设定标准监督学习半监督学习其他 达成目标小结达成目标设定标准设定范围 部分截图来自原课程视频《2023李宏毅最新生成式AI教程》#xff0c;B站自行搜… 目录 机器学习的本质机器学习的类型Regression/回归Classification/分类Structured Learning/结构化学习 ML的三板斧设定范围设定标准监督学习半监督学习其他 达成目标小结达成目标设定标准设定范围 部分截图来自原课程视频《2023李宏毅最新生成式AI教程》B站自行搜索 这节课主要是复习但是里面有些结论可以加深对ML和DL的理解。
机器学习的本质
让机器自动寻找 计算出一个函数这个函数能完成我们既定的目标。例如 ChatGPT是找一个函数能够完成下一个字/词的预测。
Midjourney是找一个函数根据文字内容生成对应图片。PS中间有一节课是用ChatGPTMidjourney玩虚拟冒险游戏演示为主 AlphaGo是找一个函数根据当前棋局预测下一步落子位置。
机器学习的类型
Regression/回归
函数输出为一个数值。典型的任务有NG的房价预测、这个前导课中的PM2.5预测等。
Classification/分类
函数输出为一个类别。典型任务有垃圾邮件识别、银行贷款审批、手写数字识别等。
Structured Learning/结构化学习
函数的输出是有结构的物件影像、图片、文字、声音等 这个类别不属于上面两类传统机器学习的分类这个类别更加复杂。Structured Learning发展到今天也有了更潮的称呼Generative Learning生成式学习。Structured Learning在早期李宏毅的机器学习课程中是单独的一个部分。
对于ChatGPT而言在微观上每一次预测下一个字/词相当于在做分类任务只不过类别就是我们的词库中所有的字/词在宏观上当我们使用ChatGPT的时候他一次会输出一段文字又可以看成是生成式的学习。
结论ChatGPT是把生成式学习拆解成多个分类问题来解决。
ML的三板斧
看到这里又梦回20年刷到机器学习课程的时候可惜一直没有玩过宝可梦游戏不然理解会更加深刻。 不过这次回顾讲解更加精简明的描述了机器学习找到梦中情function的过程。
前提 开始之前要决定找什么样的函数。这是一个与技术无关的问题就是根据需要定下来函数是属于上面三种类型的哪一类下面以回归为例吃图片预测其战斗力数值。
设定范围
设定范围就是选定Model候选函数的集合。 DL中的各种模型结构CNNRNNTransformer等或者各种决策树、感知机等都是各种不同的候选函数的集合。例如我们选定某个结构后使用四种不同的参数对于相同的输入就可以得到不同的结果 当然参数有无数种可能我们把某个DL模型的不同参数所形成的函数集合记为 H \mathcal{H} H 这里涉及到函数空间等原理需要了解的可以看之前的课程。
设定标准
设定Loss评价函数好坏的标准以宝可梦战斗力预测任务来举例。现假设有一个函数 f 1 f_1 f1对三只宝可梦进行预测结果如下 然后根据数据标记方式不同又分两种情况进行讨论
监督学习
此时有专业人员对宝可梦实际战斗力进行标注 此时我们可以对函数 f 1 f_1 f1计算结果的正确程度进行计算Loss L ( f 1 ) ∣ 103 − 101 ∣ ∣ 17 − 18 ∣ ∣ 212 − 200 ∣ 2 1 12 15 L(f_1)|{\color{Blue}103}-101||{\color{Blue}17}-18||{\color{Blue}212}-200|211215 L(f1)∣103−101∣∣17−18∣∣212−200∣211215 PS L L L称为损失函数上面宝可梦的战斗力称为训练数据。这里为了简单就直接算实操会更加复杂要根据具体训练数据来拟定损失函数例如是否要加正则项、是否对差值进行平方等。
半监督学习
此时只有部分宝可梦的战斗力得到标注例如下面只有一只有标注其他没有 对于有标注的数据可以按监督学习的方法进行计算Loss对于其他可以自己制定相应规则例如规定外形相似的宝可梦战斗力应该一致。 但是 f 1 f_1 f1函数对于两个皮卡丘的输出如下 二者差异为81因此可以得到 f 1 f_1 f1函数的Loss为 L ( f 1 ) ∣ 103 − 101 ∣ 98 − 17 83 L(f_1)|{\color{Blue}103}-101|98-1783 L(f1)∣103−101∣98−1783 当然规则是人定的也可以定相同颜色的宝可梦战斗力一样。。。 如何定规则当然也是要根据训练数据来。
其他
当然还有其他中训练方式例如强化学习无监督学习
达成目标
找到最优的函数Optimization自觉上当然是Loss最小的那个函数就是最优 f ∗ a r g min f ∈ H L ( f ) f^*arg\min_{f\in\mathcal{H}}L(f) f∗argf∈HminL(f) 例如 当然具体实作中找最优函数可以看做求Loss最小值的过程由于Loss函数通常是多项式那么找到多项式最小值常用的方法就是GD而对于DL而言BP就是正解。当然还有类似遗传算法等其他方法可以找到最优函数。
小结
步骤含义方法设定范围选定候选函数的集合DL(CNN, RNN, Transformer), Decision Tree, Perceptron, etc.设定标准选定评价函数好坏的标准Supervised Learning, Semi-supervised Learning, Unsupervised Learning, RL, etc.达成目标找到最优的函数Gradient Descent(Adam, AdamW…), Back Propagation, Genetic Algorithm, etc.
好好看上面的表格可以更加深入理解很多概念例如RL会取代DL这个说法是不正确的两个方法属于不同的步骤谈不上谁取代谁。 还可以在写论文的时候从不同的出发点来寻找创新idea。 这里有把三个步骤从后往前重新分析了一遍。
达成目标 可以把大大的长方形看做是一个函数这个函数吃候选函数集合 H \mathcal{H} H和评定函数 L L L得到一个函数 f ∗ f^* f∗该函数属于 H \mathcal{H} H并且可以使得 L L L的值越小越好这里不是最小因为可能是局部最小值 当然这个长方形函数比较复杂需要我们预先设定一些超参数HyperparameterLearning Rate、Batch Size、How to Init。当然我们也希望长方形函数的鲁棒性很强对这些超参数不这么敏感。
设定标准 从训练数据中根据评定函数 L L L找出 f ∗ f^* f∗当然在训练数据上表现比较好的 f ∗ f^* f∗在测试数据上表现不一定好这可能是因为训练数据与测试数据不是相同分布的。 我们可以在训练阶段在评定函数 L L L中加入额外考量正则化。就好比平时练习使用难度较高的卷子考试题目虽然没有见过也大概率拿高分
设定范围
为什么要设定候选函数的范围而不把覆盖所有向量空间的函数作为我们的范围呢因为有些函数训练结果好但测试效果差过拟合。 因此我们要划定范围将那些容易过拟合的函数排除在外。当我们设定范围太大就会将过拟合的函数包含进来最大椭圆如果设定范围太小又会将正好拟合的函数排除在外最小椭圆。 主要还是根据数据量来看数据量大范围可以大一些例如在图像上的研究趋势看早期数据量小因此采用CNN结构后来数据量变大后就开始引入Transformer结构Transformer结构的范围正是要比CNN结构的范围大。
还有一些特殊的方法例如下图中残差网络虽然这个结构包含的范围可能不咋地但是这个结构很容易找出 f ∗ f^* f∗ 同理在损失函数上使用交叉熵比使用平方差的方式要更容易达成目标。