当前位置: 首页 > news >正文

织梦iis7搭建网站网站前端改版涉及到的问题

织梦iis7搭建网站,网站前端改版涉及到的问题,新版织梦腾讯3366小游戏门户网站模板源码,古镇 网站建设AdaBoost AdaBoost#xff08;Adaptive Boosting#xff09;是一种Boosting算法#xff0c;它通过迭代地训练弱分类器并将它们组合成一个强分类器来提高分类性能。 AdaBoost算法的特点是它能够自适应地调整样本的权重#xff0c;使那些被错误分类的样本在后续的训练中得到…AdaBoost AdaBoostAdaptive Boosting是一种Boosting算法它通过迭代地训练弱分类器并将它们组合成一个强分类器来提高分类性能。 AdaBoost算法的特点是它能够自适应地调整样本的权重使那些被错误分类的样本在后续的训练中得到更多的关注。 加法模型 AdaBoost算法的最终分类器是一个加法模型即多个弱分类器的线性组合。数学表达式如下 f ( x ) ∑ m 1 M α m G m ( x ) f(x) \sum_{m1}^{M} \alpha_m G_m(x) f(x)m1∑M​αm​Gm​(x) 其中 G m ( x ) G_m(x) Gm​(x)是第m个弱分类器 α m \alpha_m αm​ 是第m个弱分类器的权重 M M M 是弱分类器的总数。 训练过程 初始化样本权重在第一轮迭代中所有样本的权重都相等即每个样本的权重为 1 N \frac{1}{N} N1​其中N是样本总数。 训练弱分类器在每一轮迭代中使用当前的样本权重来训练一个弱分类器 G m ( x ) G_m(x) Gm​(x)。 计算分类误差率计算弱分类器 G m ( x ) G_m(x) Gm​(x)在训练集上的分类误差率 ϵ m \epsilon_m ϵm​即被错误分类的样本数占总样本数的比例。 分类误差率范围确定: 0 ϵ m 0.5 0\epsilon_m0.5 0ϵm​0.5分类误差率计算公式为 ϵ m ∑ i 1 N w i ( m ) ⋅ I ( y i ≠ G m ( x i ) ) ∑ y i ≠ G m ( x i ) w i ( m ) \epsilon_m {\sum_{i1}^{N} w_i^{(m)} \cdot \mathbb{I}(y_i \neq G_m(x_i))} {\sum_{y_i \neq G_m(x_i)} w_i^{(m)}} ϵm​i1∑N​wi(m)​⋅I(yi​Gm​(xi​))yi​Gm​(xi​)∑​wi(m)​ I ( y i ≠ G m ( x i ) ) \mathbb{I}(y_i \neq G_m(x_i)) I(yi​Gm​(xi​))是一个指示函数也称为指示变量当样本i的真实标签 y i y_i yi​ 与弱分类器对样本i的预测 G m ( x i ) G_m(x_i) Gm​(xi​) 不相等即样本被错误分类时该函数的值为1如果相等即样本被正确分类时该函数的值为0。 ∑ y i ≠ G m ( x i ) w i ( m ) \sum_{y_i \neq G_m(x_i)} w_i^{(m)} ∑yi​Gm​(xi​)​wi(m)​对所有被第m个弱分类器错误分类的样本的权重进行累加。 计算弱分类器权重根据分类误差率 ϵ m \epsilon_m ϵm​ 计算弱分类器的权重 α m \alpha_m αm​。 - 分类误差率越大权重越小反之分类误差率越小权值越大。 - 权重的计算公式为 α m 1 2 ln ⁡ ( 1 − ϵ m ϵ m ) \alpha_m \frac{1}{2} \ln \left( \frac{1 - \epsilon_m}{\epsilon_m} \right) αm​21​ln(ϵm​1−ϵm​​) 1 − ϵ m 1−ϵ_m 1−ϵm​ 是第m个弱分类器在训练集上的正确率即被正确分类的样本数占总样本数的比例。对数函数 ln ⁡ ( 1 − ϵ m ϵ m ) \ln \left( \frac{1 - \epsilon_m}{\epsilon_m} \right) ln(ϵm​1−ϵm​​) 用于计算正确率与误差率的比值的自然对数。这个比值反映了弱分类器的性能正确率越高误差率越低比值越大。 更新样本权重根据弱分类器的预测结果更新样本权重。对于被正确分类的样本权重降低对于被错误分类的样本权重提高。将样本权重的更新视为损失函数 更新公式为 w i ( m 1 ) w i ( m ) ⋅ exp ⁡ ( − α m ⋅ y i ⋅ G m ( x i ) ) Z m w_{i}^{(m1)} \frac {w_{i}^{(m)} \cdot \exp(-\alpha_m \cdot y_i \cdot G_m(x_i)) }{Z_m} wi(m1)​Zm​wi(m)​⋅exp(−αm​⋅yi​⋅Gm​(xi​))​ - 其中 w i ( m ) w_{i}^{(m)} wi(m)​ 是第m轮中第i个样本的权重 y i y_i yi​ 是第i个样本的真实标签 G m ( x i ) G_m(x_i) Gm​(xi​) 是第m个弱分类器对第i个样本的预测结果 - Z m Z_m Zm​是归一化因子目的是把分子映射到0-1范围内。 Z m ∑ i 1 N w i ( m ) ⋅ exp ⁡ ( − α m ⋅ y i ⋅ G m ( x i ) ) Z_m \sum_{i 1}^Nw_{i}^{(m)} \cdot \exp(-\alpha_m \cdot y_i \cdot G_m(x_i)) Zm​∑i1N​wi(m)​⋅exp(−αm​⋅yi​⋅Gm​(xi​))。 - 对于被正确分类的样本 y i ⋅ G m ( x i ) y_i \cdot G_m(x_i) yi​⋅Gm​(xi​)同号指数函数的值为 e − α m e^{-\alpha_m} e−αm​ 小于1样本权重降低。 - 对于被错误分类的样本 y i ⋅ G m ( x i ) y_i \cdot G_m(x_i) yi​⋅Gm​(xi​)异号指数函数的值为 e α m e^{\alpha_m} eαm​ 大于1样本权重提高。 - 上述公式也可以写成这样 迭代重复步骤2到6直到达到指定的迭代次数M或总分类器的精度达到设定的阈值。 最终预测在所有弱分类器训练完成后AdaBoost算法通过加权多数表决来确定最终的分类结果。对于一个新样本x最终的预测结果是所有弱分类器预测结果的加权和 f ( x ) ∑ m 1 M α m G m ( x ) f(x) \sum_{m1}^{M} \alpha_m G_m(x) f(x)m1∑M​αm​Gm​(x) 对于分类问题最终的预测类别是使 f ( x ) f(x) f(x)最大化的类别。 例子 例子来源 代码实现 import numpy as np from sklearn.datasets import make_classification from sklearn.metrics import accuracy_score from sklearn.model_selection import train_test_split# make_classification生成包含1000个样本和20个特征的模拟二分类数据集 X, y make_classification(n_samples1000, n_features20, n_informative2, n_redundant0, random_state42) y np.where(y 0, -1, 1) # 将标签转换为-1和1# 划分训练集和测试集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 1. 初始化样本权重 sample_weights np.ones_like(y_train) / len(y_train)# 设置参数 n_estimators 50 # 弱分类器的数量 learning_rate 1.0 # 学习率# 初始化弱分类器列表 weak_classifiers []for m in range(n_estimators):# 2. 训练弱分类器from sklearn.tree import DecisionTreeClassifierclf DecisionTreeClassifier(max_depth1)clf.fit(X_train, y_train, sample_weightsample_weights)y_pred clf.predict(X_train)# 3. 计算分类误差率incorrect np.sum(sample_weights * (y_train ! y_pred))error_rate incorrect / np.sum(sample_weights)# 如果误差率大于0.5则拒绝这个分类器if error_rate 0.5:continue# 4. 计算弱分类器权重alpha np.log((1.0 - error_rate) / error_rate) / 2.0# 更新弱分类器列表weak_classifiers.append((clf, alpha))# 5. 更新样本权重sample_weights * np.exp(-alpha * y_train * y_pred)sample_weights / np.sum(sample_weights) # 归一化权重def predict(X, classifiers):votes np.zeros((X.shape[0],))for clf, alpha in classifiers:votes alpha * clf.predict(X)return np.sign(votes)# 7.预测 train_pred predict(X_train, weak_classifiers) test_pred predict(X_test, weak_classifiers)# 计算准确率 train_accuracy accuracy_score(y_train, train_pred) test_accuracy accuracy_score(y_test, test_pred)print(fTrain Accuracy: {train_accuracy:.4f}) print(fTest Accuracy: {test_accuracy:.4f})
http://www.dnsts.com.cn/news/69066.html

相关文章:

  • 网站服务器怎么做神华两学一做网站
  • 网络推广建立站点如何建立接平面设计私活的网站
  • 淄博网站制作定制品牌惠阳区建设局网站
  • 网站建设的软件是哪个收录提交入口
  • 小学老师在哪个网站做ppt自媒体网站源码模板dede
  • 网站图片不轮播网业是什么行业
  • 济南网站建设哪家便宜wordpress评论置顶
  • 西部数码网站管理助手 2008南联网站建设公司
  • vps做vpn svn和网站太仓手机网站建设价格
  • 做网站的开场白seo网络推广
  • 用python做一旅游网站网站及微信建设是否涉及知识产权
  • 网站群建设分析全球采购
  • 建设专业网站天津网站开发学校
  • PR做视频需要放网站上在线制作logo图片
  • 沈阳市城市建设学院官方网站曲靖房地产网站开发
  • 网站开发(源代码)seo就业哪家好
  • 网至普的营销型网站布局织梦 旅游网站模板
  • 做非法网站基础建设包括哪些板块
  • 有做淘宝网站的wordpress生成推广链接
  • 哪个网站做的系统好用什么网站可以做告白的网页
  • 惠州做网站公司哪家好织梦做的网站快照被攻击
  • 网站页面描述论坛推广软件
  • 网站开发中心wordpress+社交链接
  • 设计好 英文网站河南做外贸网站的公司
  • 连锁店装修网站seo与网站没关
  • 网页设计个人简历代码seo外链建设
  • 建站哪家公司比较好而且不贵医药o2o平台有哪些
  • 邯郸做网站外包商丘seo优化
  • 创可贴网站怎么做图片大全wordpress内容页标题
  • 什么叫网站建设服务西安汇友网站建设