当前位置: 首页 > news >正文

会展免费网站模板开封seo公司

会展免费网站模板,开封seo公司,网站制作的总结与体会,vfp网站开发文章目录 1. 能否用回归解决分类问题2. 生成模型#xff08;概率生成#xff09;3. 判别模型#xff08;逻辑回归#xff09;4. 多分类问题 1. 能否用回归解决分类问题 二元分类 数据分布不规律#xff0c;回归函数会尽量减少误差#xff0c;导致不合理的偏移离分界较远… 文章目录 1. 能否用回归解决分类问题2. 生成模型概率生成3. 判别模型逻辑回归4. 多分类问题 1. 能否用回归解决分类问题 二元分类 数据分布不规律回归函数会尽量减少误差导致不合理的偏移离分界较远的点会影响划分决策边界偏移难以找到回归函数使大部分样本点集中在离散点附近 多元分类 使用数值描述类别时存在问题相近的数值之间可能有联系但实际分类之间没有隐含关系 2. 生成模型概率生成 确定模型 贝叶斯公式根据先验概率求后验概率 P ( C 1 ∣ x ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 2 ) P ( x ∣ C 2 ) P(C_1|x) \frac{P(C_1)P(x|C_1)}{P(C_1)P(x|C_1) P(C_2)P(x|C_2)} P(C1​∣x)P(C1​)P(x∣C1​)P(C2​)P(x∣C2​)P(C1​)P(x∣C1​)​ 对于二分类问题只需判断是否属于分类 1分类 2 即确定 目标是找到拟合分布 P ( x ∣ C 1 ) P(x|C_1) P(x∣C1​)和 P ( x ∣ C 2 ) P(x|C_2) P(x∣C2​) 评估函数 高斯分布寻找 μ \mu μ 和 Σ \Sigma Σ使得高斯分布与 x 在 C 中的分布最大匹配分别寻找两个分布 C 1 C1 C1 C 2 C2 C2 找到最优的函数 极大似然估计法通过代入所有的 x x x 到高斯分布计算概率的连乘结果最大化此结果确定最优的 μ \mu μ 和 Σ \Sigma Σ。 如何实现分类 找到高斯分布后代入问题模型中确定后验概率函数输入 x x x 就能得到分类结果。 优化 共用协方差 Σ \Sigma Σ减少参数防止过拟合。这时找到的函数将会是一条直线。 3. 判别模型逻辑回归 说明 当共用协方差时可以得到如下公式 P ( C 1 ∣ x ) σ ( w x b ) P(C_1|x) \sigma(wx b) P(C1​∣x)σ(wxb) 其中 σ ( x ) 1 1 e − x \sigma(x) \frac{1}{1 e^{-x}} σ(x)1e−x1​ 为 Sigmoid 函数。 直接训练 w w w 和 b b b无需假设高斯分布。 做法 确定模型 f ( x ) P ( C 1 ∣ x ) σ ( w x b ) f(x) P(C_1|x) \sigma(wx b) f(x)P(C1​∣x)σ(wxb) 目标是直接找 w w w 和 b b b 来确定后验概率。 评估函数 L ( w , b ) f w , b ( x 1 ) f w , b ( x 2 ) ( 1 − f w , b ( x 3 ) ) . . . L(w,b)f_{w,b}(x^1)f_{w,b}(x^2)(1-f_{w,b}(x^3))... L(w,b)fw,b​(x1)fw,b​(x2)(1−fw,b​(x3))... 此时目标是最大化评估函数。 引入交叉熵Cross-Entropy H ( p , q ) − ∑ p ( x ) ln ⁡ ( q ( x ) ) H(p,q) - \sum p(x) \ln(q(x)) H(p,q)−∑p(x)ln(q(x)) 交叉熵越小表示两个分布越接近。 进一步损失函数 − ln ⁡ L ( w , b ) − ∑ [ y n ln ⁡ f w , b ( x n ) ( 1 − y n ) ln ⁡ ( 1 − f w , b ( x n ) ) ] -\ln L(w,b) - \sum \left[ y^n \ln f_{w,b}(x^n) (1 - y^n) \ln(1 - f_{w,b}(x^n)) \right] −lnL(w,b)−∑[ynlnfw,b​(xn)(1−yn)ln(1−fw,b​(xn))] 目标是最小化损失函数。 寻找最优函数 使用梯度下降法更新参数 w t 1 w t − η ∑ n [ − ( y n − f w , b ( x n ) ) x n ] w_{t1} w_t - \eta \sum_n \left[ -(y^n - f_{w,b}(x^n)) x^n \right] wt1​wt​−ηn∑​[−(yn−fw,b​(xn))xn] 与线性回归比较 逻辑回归中引入了 Sigmoid 函数输出值范围为 0 到 1。线性回归输出可能是任意实数。逻辑回归的损失函数是交叉熵而线性回归使用平方误差。 与生成模型比较 生成模型假设数据分布符合某个高斯分布。判别模型不做假设直接学习分类边界求 w w w 和 b b b。判别模型通常比生成模型表现好但在数据不足的情况下生成模型更为实用。 逻辑回归缺陷 逻辑回归无法解决线性不可分问题需要通过特征转换来处理这通常是深度学习的核心。 为什么不用平方误差 若用平方误差损失函数为 L ( w , b ) 1 2 ∑ ( y n − f w , b ( x n ) ) 2 L(w,b) \frac{1}{2} \sum (y^n - f_{w,b}(x^n))^2 L(w,b)21​∑(yn−fw,b​(xn))2 梯度为 d L d w 2 ( y n − f w , b ( x n ) ) f w , b ( x n ) ( 1 − f w , b ( x n ) ) x n \frac{dL}{dw} 2(y^n - f_{w,b}(x^n)) f_{w,b}(x^n) (1 - f_{w,b}(x^n)) x^n dwdL​2(yn−fw,b​(xn))fw,b​(xn)(1−fw,b​(xn))xn 当 y n 1 y^n 1 yn1 且 f ( x n ) 1 f(x^n) 1 f(xn)1 时梯度为 0正常。 当 y n 1 y^n 1 yn1 且 f ( x n ) 0 f(x^n) 0 f(xn)0 时梯度也为 0不正常训练非常缓慢。 结论使用平方误差损失函数梯度会在边界附近为零导致训练速度非常慢。交叉熵的损失函数更适合分类问题。 4. 多分类问题 使用 逻辑回归 计算每个类别的概率值然后通过 Softmax 函数选择最大概率的类别。 Softmax ( x i ) e x i ∑ j e x j \text{Softmax}(x_i) \frac{e^{x_i}}{\sum_j e^{x_j}} Softmax(xi​)∑j​exj​exi​​
http://www.dnsts.com.cn/news/247458.html

相关文章:

  • 北京网站设计确保代码符合w3c找人建设网站
  • 南京建设行政主管部门网站电子商务平台的营销推广方案
  • 网站建设模板案例响应式在线制作文字图片
  • 河南住房和城乡建设部网站陕西天和建设有限公司网站
  • 个人网站开发软件汽车网站推广策划方案
  • 网站推广设计应用商城软件下载 app
  • 工程建设业主官方网站郑州百度分公司
  • 手表网站欧米茄大气的企业网站源码
  • 品牌网站推广软件ui交互设计是什么意思
  • php网站制作2022世界物联网
  • cdr 做网站电商具体是做什么的
  • 网站制作公司咨询2012服务器做网站
  • 网页制作创建站点西安seo
  • 做pc端网站案例网页设计个人信息
  • 保康网站建设永州高端网站建设
  • 网页制作基础教程淘宝网素材万能优化大师下载
  • 做视频网站什么平台好企业建网站的工作
  • 网站建设平台价位WordPress修改注册界面
  • 做网站做系统四川省微信网站建设
  • wordpress tag到导航seo的工作内容
  • 网站地图怎么提交全国企业网查询
  • 住房新建网站网站做跳转微信打开
  • 上海的广告公司网站建设怎样做加入购物车的网站
  • 外贸网站建设公司教程wordpress4.9.4安装启动
  • 山东新昌隆建设咨询有限公司网站wap网站分享代码
  • 网站建设的重要张家界网站建设企业
  • 大学生创业做网站厦门做企业网站找谁
  • 基于淘宝的网站开发分析深圳网站建设找哪家公司好
  • 做网站用了别人公司的图片可以吗网站 数据库 模板
  • 网站建设若干意见网站-网站建设定制