当前位置: 首页 > news >正文

建立商务网站步骤买空间的网站

建立商务网站步骤,买空间的网站,网站引入视频播放,建立劳动关系应当订立劳动合同四.特征工程 1.概念 一般使用pandas来进行数据清洗和数据处理、使用sklearn来进行特征工程 将任意数据#xff08;文本或图像等#xff09;转换为数字特征#xff0c;对特征进行相关的处理 步骤#xff1a;1.特征提取#xff1b;2.无量纲化#xff08;预处理#xf…四.特征工程 1.概念 一般使用pandas来进行数据清洗和数据处理、使用sklearn来进行特征工程 将任意数据文本或图像等转换为数字特征对特征进行相关的处理 步骤1.特征提取2.无量纲化预处理归一化、标准化3.降维底方差过滤特征选择主成分分析-PCA降维 2.特征工程API ①.实例化转换器对象 DictVectorizer 字典特征提取 CountVectorizer 文本特征提取 TfidfVectorizer TF-IDF文本特征词的重要程度特征提取 MinMaxScaler 归一化 StandardScaler 标准化 VarianceThreshold 底方差过滤降维 PCA 主成分分析降维 ②.fittransform和fit_transform fit用于计算数据的统计信息比如均值和标准差在StandardScaler的情况下这些统计信息随后会被用于预测出来的数据 transform使用已经通过fit方法计算出的统计信息来转换数据。 fit_transform两者结合更高效 一旦scaler对象在X_train上被fit它就已经知道了如何将数据标准化。 先fit_transform(x_train)然后再transform(x_text) fit只用一次 # fit 和 transform 和fittransform 区别 from sklearn.preprocessing import StandardScaler,MinMaxScaler import numpy as np transferStandardScaler() xnp.random.randint(100,size(3,4)) print(x) transfer.fit(x)#计算出均值和标准差 xtransfer.transform(x) # xtransfer.fit_transform(x) print(x) x2np.array([[10,20,30,40]]) x2transfer.transform(x2) ​ print(x2) 3.DictVectorizer 字典列表特征提取 1.稀疏矩阵 一个矩阵中大部分元素为0常见于大规模数据分析、图形学、自然语言处理、机器学习等领域 常用存储方式①.三元组表 (Coordinate List, COO)三元组表就是一种稀疏矩阵类型数据,存储非零元素的行索引、列索引和值: (行,列) 数据 (0,0) 10 (0,1) 20 (2,0) 90 (2,20) 8 (8,0) 70 表示除了列出的有值, 其余全是0 ②.压缩稀疏行 (CSR - Compressed Sparse Row): CSR 格式将稀疏矩阵中的非零元素按行优先的方式存储。它使用了三个数组 data存储非零元素的值。 indices存储data中每个元素的列索引。 indptr存储每一行在data和indices数组中的起始位置。 CSR 格式非常适合快速地进行行访问和矩阵向量乘法。 ③.压缩稀疏列 (CSC - Compressed Sparse Column): CSC 格式类似于 CSR但它是按列优先的方式来存储稀疏矩阵。同样也使用了三个数组 data存储非零元素的值。 indices存储data中每个元素的行索引。 indptr存储每一列在data和indices数组中的起始位置。 CSC 格式对于快速地进行列访问和某些类型的矩阵运算很有帮助。 ④.字典 (Dictionary of Keys - DOK): DOK 格式使用一个字典来存储非零元素其中键是元素的位置通常是元组 (row, column)值是非零元素本身。 这种格式适合于动态地增加或修改矩阵中的非零元素。 ⑤.链表 (List of Lists - LIL): LIL 格式使用两个列表来表示稀疏矩阵。其中一个列表包含每一行的非零元素另一个列表包含了这些非零元素的列索引。 LIL 格式适合于构建稀疏矩阵特别是当矩阵的结构在构建过程中发生变化时。 ⑥.块稀疏行 (BSR - Block Sparse Row): BSR 格式类似于 CSR但它不是处理单个非零元素而是处理固定大小的非零元素块。 这种格式适用于那些非零元素倾向于形成小的密集子矩阵的情况。 2.非稀疏矩阵稠密矩阵 矩阵中的大部分元素都是非0的,矩阵的存储通常采用标准的二维数组形式。在数学计算、线性代数等通用计算领域更为常见。 3.API 创建转换器对象: sklearn.feature_extraction.DictVectorizer(sparseTrue) DictVectorizer字典向量化工具 参数: sparseTrue返回类型为csr_matrix的稀疏矩阵 sparseFalse表示返回的是数组,数组可以调用.toarray()方法将稀疏矩阵转换为数组 转换器对象: 转换器对象调用fit_transform(data)函数参数data为一维字典数组或一维字典列表,返回转化后的矩阵或数组 转换器对象get_feature_names_out()方法获取特征名 eg1.提取为稀疏矩阵对应的数组 # 字典列表特征提取 from sklearn.feature_extraction import DictVectorizer import pandas   as pd data[{city:北京,money:38,age:20},{city:上海,money:60,age:29},{city:深圳,money:30,age:32},{city:深圳,money:40,age:49}] # 初始化工具(字典变成向量的工具器) modelDictVectorizer(sparseFalse)#sparse是否转换成三元组形式 datamodel.fit_transform(data) # print(data,type(data)) # print(model.get_feature_names_out())#获取所有的特征名称 ddatapd.DataFrame(datadata,columnsmodel.get_feature_names_out()) # print(ddata) ddata eg2.提取为稀疏矩阵 # 字典列表特征提取 from sklearn.feature_extraction import DictVectorizer import pandas   as pd data[{city:北京,money:38,age:20},{city:上海,money:60,age:29},{city:深圳,money:30,age:32},{city:深圳,money:40,age:49}] # 初始化工具(字典变成向量的工具器) modelDictVectorizer(sparseTrue)#sparse是否转换成三元组形式 datamodel.fit_transform(data) print(data,type(data)) arrdata.toarray()#把三元组(稀疏矩阵)转化为数组 print(arr) 4.CountVectorizer 文本特征提取 1.API sklearn.feature_extraction.text.CountVectorizer 构造函数关键字参数stop_words值为list表示词的黑名单(不提取的词) fit_transform函数的返回值为稀疏矩阵 eg3.英文文本提取 # CountVectorizer 文本特征提取 from sklearn.feature_extraction.text import CountVectorizer corpus [I love machine learning. Its awesome., Its a book amazon book, Amazon is book a great company] # 创建一个词频提取对象 vectorizer CountVectorizer(stop_words[]) # 提取词频 xvectorizer.fit_transform(corpus) print(x) print(x.toarray()) print(vectorizer.get_feature_names_out()) ​ eg4.中文文本提取 ! pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jieba # CountVectorizer 中文本特征提取 from sklearn.feature_extraction.text import CountVectorizer import jieba import pandas as pd # arrlist(jieba.cut(我爱北京天安门)) # print(arr) # str1 .join(arr) # print(str1) #传入的文本(没有断词的字符串) 用jieba分词工具转化为数据容器,然后再把数据容器中元素用空格连接成字符串 def my_cut(text):return .join(jieba.cut(text)) ​ ​ corpus [教育学会会长期间坚定支持民办教育事业,  扶持民办,学校发展事业,事业做出重大贡献] # # 创建一个词频提取对象 vectorizer CountVectorizer(stop_words[]) # 提取词频 data[my_cut(el) for el in corpus] print(data) xvectorizer.fit_transform(data) print(x) print(x.toarray()) print(vectorizer.get_feature_names_out()) ​ ddatapd.DataFrame(x.toarray(),columnsvectorizer.get_feature_names_out()) ddata 5.TfidfVectorizer TF-IDF文本特征词的重要程度特征提取 1.算法 词频(Term Frequency, TF), 表示一个词在当前篇文章中的重要性是对词数的归一化 TF某个词在文章中的出现次数/文章的总词数 逆文档频率(Inverse Document Frequency, IDF), 反映了词在整个文档集合中的稀有程度 IDFlg语料库的文档总数1/包含该词的文档数1 TF-IDF词频(TF)×逆文档频率IDF 2.API sklearn.feature_extraction.text.TfidfVectorizer() 构造函数关键字参数stop_words表示词特征黑名单 fit_transform函数的返回值为稀疏矩阵 eg5 from sklearn.feature_extraction.text import CountVectorizer,TfidfVectorizer import jieba import pandas as pd def my_cut(text):return .join(jieba.cut(text)) data[教育学会会长期间坚定支持民办教育事业,  扶持民办,学校发展事业,事业做出重大贡献] data[my_cut(i) for i in data] print(data) transferTfidfVectorizer(stop_words[]) restransfer.fit_transform(data) print(transfer.get_feature_names_out()) print(res.toarray()) ddatapd.DataFrame(res.toarray(),columnstransfer.get_feature_names_out()) ddata ​ 6.无量纲化-预处理 1.MinMaxScaler 归一化 2.归一化API sklearn.preprocessing.MinMaxScaler(feature_range) 参数:feature_range(0,1) 归一化后的值域,可以自己设定 fit_transform函数归一化的原始数据类型可以是list、DataFrame和ndarray, 不可以是稀疏矩阵 fit_transform函数的返回值为ndarray eg6.归一化 from sklearn.preprocessing import MinMaxScaler import pandas as   pd scalerMinMaxScaler(feature_range(0,1)) datapd.read_excel(./src/test2.xlsx) print(data.values) # arrscaler.fit_transform(data.values) arrscaler.fit_transform(data) print(arr) 鲁棒性较差 # 字典列表特征提取后的结果归一化 from sklearn.feature_extraction import DictVectorizer from sklearn.preprocessing  import MinMaxScaler import pandas   as pd data[{city:北京,money:38,age:20},{city:上海,money:60,age:29},{city:深圳,money:30,age:32},{city:深圳,money:40,age:49}] # 初始化工具(字典变成向量的工具器) modelDictVectorizer(sparseTrue)#sparse是否转换成三元组形式 datamodel.fit_transform(data) # print(data,type(data)) arrdata.toarray()#把三元组(稀疏矩阵)转化为数组 print(arr) arr_1MinMaxScaler().fit_transform(arr) arr_1 3.StandardScaler 标准化 4.标准化API sklearn.preprocessing.StandardScale 与MinMaxScaler一样原始数据类型可以是list、DataFrame和ndarray fit_transform函数的返回值为ndarray, 归一化后得到的数据类型都是ndarray eg7.标准化 from sklearn.preprocessing import StandardScaler import numpy as np # 初始化标准化工具 scaler StandardScaler() np.random.seed(7) datanp.array([[1,2,3,4],[2,2,3,4],[3,2,3,4],[4,2,3,4]]) #np.random.randint(0,100,(30,4)) # print(data) # 把data进行标准化 xscaler.fit_transform(data) print(x) 7.特征降维 降维去掉一些特征或者将多个特征转化为少量个特征 在尽可能保留数据的重要信息上减少数据集维度可以减少计算成本、去除噪声 方式特征选择、主成份分析(PCA) 1.特征选择 ①.VarianceThreshold 低方差过滤特征选择 计算方差-设定阈值-过滤特征 eg8 # 低方差过滤 from sklearn.feature_selection import VarianceThreshold transferVarianceThreshold(threshold0.01) x[[0,2,0,3],[0,1,4,3],[0,1,1,3]] xtransfer.fit_transform(x) print(x) ②.根据相关系数的特征选择 正相关性一个变量增加通常伴随着另一个变量的增加。ρ1完全正相关 负相关性一个变量减少通常伴随着另一个变量的减少。ρ-1完全负相关 不相关两者的相关性很小一个变量变化不会引起另外的变量变化。ρ0不存在线性关系 ! pip install -i https://pypi.tuna.tsinghua.edu.cn/simple scipy 皮尔逊相关系数Pearson correlation coefficient)是一种度量两个变量之间线性相关性的统计量。它提供了两个变量间关系的方向正相关或负相关和强度的信息取值范围是 [−1,1]。绝对值越大表示越相关当两特征完全相关时两特征的值表示的向量是在同一条直线上当两特征的相关系数绝对值很小时两特征值表示的向量接近在同一条直线上。当相关系值为负数时表示负相关 |ρ|0.4为低度相关; 0.4|ρ|0.7为显著相关 0.7|ρ|1为高度相关 API scipy.stats.personr(x, y) 计算两特征之间的相关性 返回对象有两个属性: statistic皮尔逊相关系数[-1,1] pvalue零假设(了解),统计上评估两个变量之间的相关性,越小越相关 from scipy.stats import pearsonr import numpy as np x1[1,2,3,4,5] y[2,4,6,8,10] rpearsonr(x1,y) print(r.statistic,r.pvalue) 2.主成份分析PCA 从原始特征空间中找到一个新的坐标系统使得数据在新坐标轴的投影能够最大程度地保留数据的方差同时减少维度。 保留信息/丢失信息信息保留的比例 步骤得到矩阵-用矩阵P对原始数据进行线性变换得到新的数据矩阵Z-根据主成分的方差等确定最终保留的主成分个数留下方差大的 API from sklearn.decomposition import PCA PCA(n_componentsNone) n_components: 实参为小数时表示降维后保留百分之多少的信息 实参为整数时表示减少到多少特征 eg9 #特征降维 减少到多少特征 from sklearn.decomposition import PCA data[[2,8,4,5],[6,3,0,8],[5,4,9,1]] pcaPCA(n_components2) datapca.fit_transform(data) print(data) #特征降维 from sklearn.decomposition import PCA import numpy as np datanp.random.rand(5,100)#5条数据100个特征量 #print(data) pcaPCA(n_components0.8) datapca.fit_transform(data) print(data.shape,data)
http://www.dnsts.com.cn/news/168230.html

相关文章:

  • 济南手机网站开发公司电话湘阴县住房建设局网站
  • 个人 备案 多个网站吗做网站要审批吗
  • 嘉兴网站建设系统做网站模板的海报尺寸多少钱
  • 安阳360网站推广工具杭州如何设计网站首页
  • 网站主页特效欣赏百度推广优化是什么?
  • 商丘整站优化海口网站建设哪个好薇
  • 成都做网站的公司哪家好室内设计师多少钱一个月
  • 丽水专业的网站建设视频网站视频预览怎么做
  • 广东建设信息网安管人员系统seo关键词优化技巧
  • 南昌市建设网站python wordpress建站
  • 八年级信息所用软件做网站员工做违法网站
  • 移动端网站开发框架市场调研公司怎么盈利
  • 冠县做网站哪里好网站制作的公司哪家效果好
  • 济南海绵城市建设官方网站站外推广怎么做
  • wordpress营销插件wordpress安全优化教程
  • 成都网站建设推广可以wordpress 进入
  • 优秀设计网站宁德小程序开发
  • 汕头百姓网交友沈阳黑酷做网站建设优化公司怎么样
  • 软件站增城住房和建设局网站
  • 免费建网站的app网上移动厅官方网站
  • 烟台建设集团 招聘信息网站表白网站制作源代码
  • 博客网站程序给wordpress写一个留言表单
  • 男女做某事网站网站关键词密度是怎么计算的
  • 做资料网站是自己建服务器好还是租用好云南网是什么性质的单位
  • 甘南网站建设公司网站怎么做成手机版
  • 怎样给网站做超链接网页制作教程和素材
  • 苏州姑苏区网站建设微信云开发平台
  • 网站多久ps个人网站怎么做
  • 外贸网站商城建设山东省示范校建设网站
  • 网站开发需求模板模板创建个人网站的步骤