当前位置: 首页 > news >正文

深圳网站设计公司哪家便宜wordpress导入淘宝

深圳网站设计公司哪家便宜,wordpress导入淘宝,江西城乡建设厅网站,企业要建设一个网站需要多少钱广义线性模型 考虑单点可微函数 g ( ⋅ ) g(\cdot) g(⋅)#xff0c;令 y g − 1 ( ω T x b ) yg^{-1}(\omega^{T}xb) yg−1(ωTxb)#xff0c;这样得到的模型称为“广义线性模型”#xff0c;其中函数 g ( ⋅ ) g(\cdot) g(⋅)称为“联系函数”。显然#xff0c;对数线…广义线性模型 考虑单点可微函数 g ( ⋅ ) g(\cdot) g(⋅)令 y g − 1 ( ω T x b ) yg^{-1}(\omega^{T}xb) yg−1(ωTxb)这样得到的模型称为“广义线性模型”其中函数 g ( ⋅ ) g(\cdot) g(⋅)称为“联系函数”。显然对数线性回归是广义线性模型在 g ( ⋅ ) ln ⁡ ( ⋅ ) g(\cdot)\ln (\cdot) g(⋅)ln(⋅)时的特例。 对数几率回归 在线性回归模型的基础上改进以完成分类任务。关键在于寻找一个单调可微函数将分类任务的真实标记 y y y与线性回归模型的预测值联系起来。 考虑二分类任务 y ∈ { 0 , 1 } ⇔ z ω T x b y\in \{0,1\}\Leftrightarrow z\omega^Txb y∈{0,1}⇔zωTxb 于是我们需将实值z转换为0/1值。 单位跃阶函数 y { 0 , z 0 0.5 , z 0 1 , z 0 y \left\{ \begin{aligned} 0,\quad z0\\ 0.5,\quad z0\\ 1,\quad z0 \end{aligned} \right. y⎩ ⎨ ⎧​0,z00.5,z01,z0​ 单位跃阶函数不连续从而不可微故不能直接作为联系函数。对数几率函数 y 1 1 e − z y\frac{1}{1e^{-z}} y1e−z1​ 对数几率函数是一种Sigmoid函数。 Sigmoid函数即形似S的函数对率函数是Sigmoid函数最重要代表。 代入广义线性模型中得到 y 1 1 e − ( ω T x b ) e ω T x b 1 e ω T x b 1 − y e − ( ω T x b ) 1 e − ( ω T x b ) 1 1 e ω T x b y 1 − y e ω T x b ln ⁡ y 1 − y ω T x b \begin{aligned} y\frac{1}{1e^{-(\omega^{T}xb)}}\frac{e^{\omega^Txb}}{1e^{\omega^Txb}} \\ 1-y\frac{e^{-(\omega^Txb)}}{1e^{-(\omega^Txb)}}\frac{1}{1e^{\omega^Txb}}\\ \frac{y}{1-y}e^{\omega^Txb}\\ \ln \frac{y}{1-y}\omega^Txb \end{aligned} ​y1e−(ωTxb)1​1eωTxbeωTxb​1−y1e−(ωTxb)e−(ωTxb)​1eωTxb1​1−yy​eωTxbln1−yy​ωTxb​ 若将y视为样本x作为正例的可能性则1-y为样本x为反例的可能性两者的比值 y 1 − y \frac{y}{1-y} 1−yy​称为“几率”反映了样本x作为正例的可能性。对几率取对数则得到“对数几率” ln ⁡ y 1 − y \ln \frac{y}{1-y} ln1−yy​。 l n y 1 − y ω T x b ln \frac{y}{1-y}\omega^Txb ln1−yy​ωTxb 实际上是用线性回归模型的预测结果去逼近真实的对数几率因此该模型也称为“对数几率回归”。虽然名字叫做回归但实际上是一种分类学习方法 对数几率回归的优点 它是直接对分类的可能性进行建模无需事先假设数据的分布这样就避免了假设分布不准确所带来的问题。它不仅预能预测出类别而是可以得到近似概率预测这对许多需要利用概率辅助决策的任务很有用。对率函数是任意阶可导的凸函数有很好的数学性质现有的很多数值优化算法都可以直接用于求取最优解。 求解对率回归模型中的参数 将y视为类后验概率估计 p ( y 1 ∣ x ) p(y1|x) p(y1∣x)则对率函数可重写为 ln ⁡ p ( y 1 ∣ x ) p ( y 0 ∣ x ) ω T x b \ln \frac{p(y1|x)}{p(y0|x)}\omega^Txb lnp(y0∣x)p(y1∣x)​ωTxb 由于 p ( y 1 ∣ x ) p ( y 0 ∣ x ) 1 p(y1|x)p(y0|x)1 p(y1∣x)p(y0∣x)1从而有 y p ( y 1 ∣ x ) e ω T x b 1 e ω T x b 1 − y p ( y 0 ∣ x ) 1 1 e ω T x b \begin{aligned} yp(y1|x)\frac{e^{\omega^Txb}}{1e^{\omega^Txb}} \\ 1-yp(y0|x)\frac{1}{1e^{\omega^Txb}} \end{aligned} yp(y1∣x)1eωTxbeωTxb​1−yp(y0∣x)1eωTxb1​​于是可以通过极大似然法来估计 ω \omega ω和 b b b。给定数据集 { ( x i , y i ) } i 1 m \{(x_i,y_i)\}_{i1}^m {(xi​,yi​)}i1m​对率回归模型最大化“对数似然” l ( ω ; b ) ∑ i 1 m ln ⁡ p ( y i ∣ x i ; ω , b ) l(\omega;b)\sum_{i1}^m{\ln p(y_i|x_i;\omega,b)} l(ω;b)i1∑m​lnp(yi​∣xi​;ω,b)即令每个样本属于其真实标记的概率越大越好。为了便于讨论令 β ( ω ; b ) , x ^ ( x ; 1 ) \beta(\omega;b),\quad \hat{x}(x;1) β(ω;b),x^(x;1)则 ω T x b \omega^Txb ωTxb可以简写为 β T x ^ \beta^T\hat{x} βTx^。再令 p 1 ( x ^ ; β ) p ( y 1 ∣ x ^ ; β ) , p 0 ( x ^ ; β ) p ( y 0 ∣ x ^ ; β ) 1 − p 1 ( x ^ ; β ) p_1(\hat{x};\beta)p(y1|\hat{x};\beta),p_0(\hat{x};\beta)p(y0|\hat{x};\beta)1-p_1(\hat{x};\beta) p1​(x^;β)p(y1∣x^;β),p0​(x^;β)p(y0∣x^;β)1−p1​(x^;β)则上式中的似然项可重写为 p ( y i ∣ x i ; ω , b ) y i p 1 ( x ^ i ; β ) ( 1 − y i ) p 0 ( x ^ i ; β ) p(y_i|x_i;\omega,b)y_ip_1(\hat{x}_i;\beta)(1-y_i)p_0(\hat{x}_i;\beta) p(yi​∣xi​;ω,b)yi​p1​(x^i​;β)(1−yi​)p0​(x^i​;β)进一步代入得 l ( ω ; b ) ∑ i 1 m ln ⁡ [ y i p 1 ( x ^ i ; β ) ( 1 − y i ) p 0 ( x ^ i ; β ) ] ∑ i 1 m ln ⁡ [ y i e ω T x i b 1 e ω T x i b ( 1 − y i ) 1 1 e ω T x i b ] ∑ i 1 m ln ⁡ [ y i e β T x ^ i 1 e β T x ^ i ( 1 − y i ) 1 1 e β T x ^ i ] ∑ i 1 m ln ⁡ [ y i e β T x ^ i − y i 1 1 e β T x ^ i ] ∑ i 1 m [ ln ⁡ ( y i e β T x ^ i − y i 1 ) − ln ⁡ ( 1 e β T x ^ i ) ] ∑ y i 0 − ln ⁡ ( 1 e β T x ^ i ) ∑ y i 1 [ ln ⁡ ( e β T x ^ i ) − ln ⁡ ( 1 e β T x ^ i ) ] − ∑ y i 0 ln ⁡ ( 1 e β T x ^ i ) ∑ y i 1 [ β T x ^ i − ln ⁡ ( 1 e β T x ^ i ) ] ∑ i 1 m [ y i β T x ^ i − ln ⁡ ( 1 e β T x ^ i ) ] \begin{aligned} l(\omega;b)\sum_{i1}^m{\ln \left[ y_ip_1(\hat{x}_i;\beta)(1-y_i)p_0(\hat{x}_i;\beta)\right]}\\ \sum_{i1}^m{\ln \left[y_i\frac{e^{\omega^Tx_ib}}{1e^{\omega^Tx_ib}}(1-y_i)\frac{1}{1e^{\omega^Tx_ib}}\right]}\\ \sum_{i1}^m{\ln \left[y_i\frac{e^{\beta^T\hat{x}_i}}{1e^{\beta^T\hat{x}_i}}(1-y_i)\frac{1}{1e^{\beta^T\hat{x}_i}}\right]}\\ \sum_{i1}^m{\ln \left[\frac{y_ie^{\beta^T\hat{x}_i}-y_i1}{1e^{\beta^T\hat{x}_i}}\right]}\\ \sum_{i1}^m{\left[\ln (y_ie^{\beta^T\hat{x}_i}-y_i1)-\ln (1e^{\beta^T\hat{x}_i})\right]}\\ \sum_{y_i0}{-\ln (1e^{\beta^T\hat{x}_i})}\sum_{y_i1}{\left[\ln(e^{\beta^T\hat{x}_i})-\ln(1e^{\beta^T\hat{x}_i})\right]}\\ -\sum_{y_i0}{\ln (1e^{\beta^T\hat{x}_i})}\sum_{y_i1}{\left[\beta^T\hat{x}_i-\ln(1e^{\beta^T\hat{x}_i})\right]}\\ \sum_{i1}^m{\left[y_i\beta^T\hat{x}_i-\ln(1e^{\beta^T\hat{x}_i})\right]} \end{aligned} l(ω;b)​i1∑m​ln[yi​p1​(x^i​;β)(1−yi​)p0​(x^i​;β)]i1∑m​ln[yi​1eωTxi​beωTxi​b​(1−yi​)1eωTxi​b1​]i1∑m​ln[yi​1eβTx^i​eβTx^i​​(1−yi​)1eβTx^i​1​]i1∑m​ln[1eβTx^i​yi​eβTx^i​−yi​1​]i1∑m​[ln(yi​eβTx^i​−yi​1)−ln(1eβTx^i​)]yi​0∑​−ln(1eβTx^i​)yi​1∑​[ln(eβTx^i​)−ln(1eβTx^i​)]−yi​0∑​ln(1eβTx^i​)yi​1∑​[βTx^i​−ln(1eβTx^i​)]i1∑m​[yi​βTx^i​−ln(1eβTx^i​)]​ 从而最大化 l ( ω ; b ) l(\omega;b) l(ω;b)等价于最小化 l ( β ) ∑ i 1 m ( − y i β T x ^ i ln ⁡ ( 1 e β T x ^ i ) ) l(\beta)\sum_{i1}^m{\left(-y_i\beta^T\hat{x}_i\ln(1e^{\beta^T\hat{x}_i})\right)} l(β)i1∑m​(−yi​βTx^i​ln(1eβTx^i​)) l ( β ) l(\beta) l(β)是关于 β \beta β的高阶可导函数根据凸优化理论经典的数值优化方法如梯度下降法、牛顿法等都可求得其最优解于是就得到 β ∗ a r g m i n β l ( β ) \beta^*argmin_{\beta}l(\beta) β∗argminβ​l(β) 例如牛顿法其第t1次轮迭代解的更新公式为 β t 1 β t − ( ∂ 2 l ( β ) ∂ β ∂ β T ) − 1 ∂ l ( β ) ∂ β \beta^{t1}\beta^{t}-{\left(\frac{\partial^2l(\beta)}{\partial\beta\partial\beta^T}\right)^{-1}\frac{\partial l(\beta)}{\partial\beta}} βt1βt−(∂β∂βT∂2l(β)​)−1∂β∂l(β)​ 其中关于 β \beta β的一阶、二阶导数分别为 ∂ l ( β ) ∂ β − ∑ i 1 m x ^ i ( y i − p 1 ( x ^ i ; β ) ) ∂ 2 l ( β ) ∂ β ∂ β T ∑ i 1 m x ^ i x ^ i T p 1 ( x ^ i ; β ) ( 1 − p 1 ( x ^ i ; β ) ) \begin{aligned} \frac{\partial l(\beta)}{\partial \beta}-\sum_{i1}^m{\hat{x}_i(y_i-p_1(\hat{x}_i;\beta))}\\ \frac{\partial^2l(\beta)}{\partial\beta\partial\beta^T}\sum_{i1}^m{\hat{x}_i\hat{x}_i^Tp_1(\hat{x}_i;\beta)(1-p_1(\hat{x}_i;\beta))} \end{aligned} ∂β∂l(β)​∂β∂βT∂2l(β)​​−i1∑m​x^i​(yi​−p1​(x^i​;β))i1∑m​x^i​x^iT​p1​(x^i​;β)(1−p1​(x^i​;β))​ 【小试牛刀】 编程实现对率回归并给出西瓜数据集3.0a上的结果。 import numpy as np import pandas as pd import xlrd#第一步导入数据 DataSetpd.read_excel(西瓜数据集3.0a.xlsx) DataDataSet.values #print(Data.shape) #17行4列 Xnp.delete(Data,0,1)#在Data的copy基础上删除第一列编号 Xnp.delete(X,2,1) #print(X) yData[:,3] #print(y)#仍然是ndarray#利用牛顿法求解 def calp1(x,Beta):求解样本x在参数beta下取正例的概率p1此处Beta为列向量(3,1)x为列向量(3,1)tempnp.exp(np.dot(x.T,Beta))p1temp/float(1temp)return p1def calpartial1(X_hat,y,beta):求解l(beta)关于参数beta的一阶导数X_hat[i]是行向量每一行代表一个样本mlen(y)partial10for i in range(m):x_hatX_hat[i].reshape(3,1)#把样本x变为列矩阵tempnp.dot(x_hat,y[i]-calp1(x_hat,beta))partial1partial1tempreturn -partial1def calpartial2(X_hat,y,beta):求解l(beta)关于beta的二阶导数beta为列向量mlen(y)partial20for i in range(m):x_hatX_hat[i].reshape(3,1)#把样本x变为列矩阵xxTnp.dot(x_hat,x_hat.T)p1calp1(x_hat,beta)tempp1*(1-p1)*xxTpartial2tempreturn partial2def LR(X,y,beta,error):error为误差#在数据集X(每行为一个样本)添加一列1#方法一X_hatnp.insert(X,2,values1,axis1)colnp.ones((17,1))#创建一个17行1列的元素全为1的二维数组Znp.c_[X,col]print(Z)t0#迭代次数while t10000:beta1beta-np.linalg.inv(calpartial2(X_hat,y,beta)).dot(calpartial1(X_hat,y,beta))if np.linalg.norm(beta-beta1,2)error:return beta1else:tt1betabeta1print(超过最大迭代次数认为不收敛) np.random.seed(1) betanp.random.rand(3,1) BetaLR(X,y,beta,1e-5) print(Beta) 输出 【编程中注意的一些问题】 DataSet是Pandas内的对象决策树的构建需要用到scikit-learn。 Pandas和Scikit-learn没有完美整合而Numpy和scikit-learn能够很好的协同使用。 从而现将Pandas中的值转化为Numpy然后再配合scikit-learn工作 numpy中的ndarray为多维数组是numpy中最为重要也是python进行科学计算非常重要和基本的数据类型。numpy矩阵运算大全见这篇博客 numpy中文官网https://www.numpy.org.cn/reference/ numpy英文官网https://numpy.org/doc/stable/index.html/ 特别注意矩阵乘法ndarray 是 NumPy 的基础元素NumPy 又主要是用来进行矩阵运算的.首先在矩阵用 ±*/ 这些常规操作符操作的时候是对元素进行操作。这和其他诸如 MATLAB 等语言不一样。 ∗ * ∗并没有进行矩阵乘法而是矩阵和矩阵的元素进行了相乘。想要进行矩阵乘法计算需要用dot方法 numpy.dot()用法 numpy.dot()如果处理的是一维数组则代表向量点积并且结果与两个参数的位置顺序无关 a1np.array([1,2,3]) b1np.array([2,2,2]) print(a1.shape,b1.shape)#(3,) (3,) print(np.dot(a1,b1),np.dot(b1,a1))#12 12numpy.dot()如果处理的是二维数组矩阵则代表矩阵乘法 a2np.arange(3,6,1).reshape(1,3) print(a2,a2.shape)#[[3,4,5]] (1,3) b2np.array([[2,4,6]]) print(b2.shape)#(1,3) #print(np.dot(b2,a2))#报错 c2b2.reshape(3,1) print(c2,c2.shape)[[2][4][6]] (3,1)print(np.dot(c2,a2),np.dot(a2,c2))[[ 6 8 10][12 16 20][18 24 30]] [[52]]标量p与二维数组A相乘时直接使用p*A向量与二维数组做运算时不能直接使用numpy.dot() #解决(3,1)和(3,)在做矩阵积的时候维度不匹配的问题 np.random.seed(1) anp.random.randint(1,10,size(3,1)) print(a.shape) bnp.append(X[5],[1],0) print(b) cb.reshape(1,3) print(c) print(np.dot(a,c))线性判别分析 线性判别的思想非常朴素给定训练样例集设法将样例投影到一条直线上使得同类样例的投影点尽可能接近异样样例的投影点尽可能远离在对新样本进行分类时将其投影到同样的直线上再根据投影点的位置来确定新样本的类别。 理论推导过程 数据集 D { ( x i , y i ) } i 1 m , y i ∈ { 0 , 1 } , x i ∈ R d D\{(x_i,y_i)\}_{i1}^m,y_i\in\{0,1\},x_i\in R^d D{(xi​,yi​)}i1m​,yi​∈{0,1},xi​∈Rd X 0 { x i ∣ y i 0 } , X 1 { x i ∣ y i 1 } X_0\{x_i|y_i0\},X_1\{x_i|y_i1\} X0​{xi​∣yi​0},X1​{xi​∣yi​1} 设 X i ( i 0 , 1 ) X_i(i0,1) Xi​(i0,1)中的样例数量为 n i , n 0 n 1 m n_i,n_0n_1m ni​,n0​n1​m均值向量为 μ i ∑ x ∈ X i x \mu_i\sum_{x\in X_i}x μi​∑x∈Xi​​x协方差矩阵 Σ i 1 n i ∑ x j ∈ X i ( x j − μ i ) ( x j − μ i ) T \Sigma_i\frac{1}{n_i}\sum_{x_j\in X_i}{(x_j-\mu_i)(x_j-\mu_i)^T} Σi​ni​1​∑xj​∈Xi​​(xj​−μi​)(xj​−μi​)T 向量x在向量w上的投影 a ( a ∈ R ) a(a\in R) a(a∈R) a ∣ x ∣ c o s α ∣ ω ∣ ∣ x ∣ c o s α ∣ o m e g a ∣ ω T x ∣ ω ∣ a|x|cos\alpha\frac{|\omega||x|cos\alpha}{|omega|}\frac{\omega^Tx}{|\omega|} a∣x∣cosα∣omega∣∣ω∣∣x∣cosα​∣ω∣ωTx​ 则对应的投影向量为 a ω ∣ ω ∣ ω T x ∣ ω ∣ ω ∣ ω ∣ ω T x ω ω T ω a\frac{\omega}{|\omega|}\frac{\omega^Tx}{|\omega|}\frac{\omega}{|\omega|}\frac{\omega^Tx\omega}{\omega^T\omega} a∣ω∣ω​∣ω∣ωTx​∣ω∣ω​ωTωωTxω​ 容易证明 X i X_i Xi​中样例在 ω \omega ω上投影的均值 X i X_i Xi​中样例的均值向量在 ω \omega ω上的投影即 1 n i ∑ x j ∈ X i ω T x j ω T ( 1 n i ∑ x j ∈ X i x j ) ω T μ i \frac{1}{n_i}\sum_{x_j\in X_i}\omega^Tx_j\omega^T(\frac{1}{n_i}\sum_{x_j\in X_i}x_j)\omega^T\mu_i ni​1​∑xj​∈Xi​​ωTxj​ωT(ni​1​∑xj​∈Xi​​xj​)ωTμi​ 从而将两类样本投影到向量 ω \omega ω上则两类样本投影点的中心分别为 ω T μ 0 ( μ 0 T ω ) \omega^T\mu_0(\mu_0^T\omega) ωTμ0​(μ0T​ω)和 ω T μ 1 ( μ 1 T ω ) \omega^T\mu_1(\mu_1^T\omega) ωTμ1​(μ1T​ω) 两类样本点投影的协方差分别为 X 0 : 1 n 0 ∑ x j ∈ X 0 ( ω T x j − ω T μ 0 ) ( ω T x j − ω T μ 0 ) T 【协方差的计算公式之一】 1 n 0 ∑ x j ∈ X 0 ω T ( x i − μ 0 ) ( x i − μ 0 ) T ω ω T ( 1 n 0 ∑ x j ∈ X 0 ( x i − μ 0 ) ( x i − μ 0 ) T ) ω ω T Σ 0 ω X 1 : ω T Σ 1 ω 【同理】 \begin{aligned} X_0:\frac{1}{n_0}\sum_{x_j\in X_0}{(\omega^Tx_j-\omega^T\mu_0)(\omega^Tx_j-\omega^T\mu_0)^T}【协方差的计算公式之一】\\ \frac{1}{n_0}\sum_{x_j\in X_0}{\omega^T(x_i-\mu_0)(x_i-\mu_0)^T\omega}\\ \omega^T\left(\frac{1}{n_0}\sum_{x_j\in X_0}{(x_i-\mu_0)(x_i-\mu_0)^T}\right)\omega\\ \omega^T\Sigma_0\omega\\ X_1:\omega^T\Sigma_1\omega【同理】 \end{aligned} X0​X1​​:n0​1​xj​∈X0​∑​(ωTxj​−ωTμ0​)(ωTxj​−ωTμ0​)T【协方差的计算公式之一】n0​1​xj​∈X0​∑​ωT(xi​−μ0​)(xi​−μ0​)TωωT ​n0​1​xj​∈X0​∑​(xi​−μ0​)(xi​−μ0​)T ​ωωTΣ0​ω:ωTΣ1​ω【同理】​ 欲使同类样本点的投影点尽可能接近可以让同类样例投影点的协方差尽可能小即 ω T Σ 0 ω ω T Σ 1 ω \omega^T\Sigma_0\omega\omega^T\Sigma_1\omega ωTΣ0​ωωTΣ1​ω尽可能小欲使异类样本的投影点尽可能远离可以让异类样本点投影后的中心之间的距离尽可能的大即 ∣ ∣ ω T μ 0 − ω T μ 1 ∣ ∣ 2 2 {||\omega^T\mu_0-\omega^T\mu_1||}_2^2 ∣∣ωTμ0​−ωTμ1​∣∣22​尽可能大。 同时考虑二者可以得到优化目标 J ( ω ) ∣ ∣ ω T μ 0 − ω T μ 1 ∣ ∣ 2 2 ω T Σ 0 ω ω T Σ 1 ω ω T ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T ω ω T ( Σ 0 Σ 1 ) ω \begin{aligned} J(\omega)\frac{{||\omega^T\mu_0-\omega^T\mu_1||}_2^2}{\omega^T\Sigma_0\omega\omega^T\Sigma_1\omega}\\ \frac{\omega^T(\mu_0-\mu_1)(\mu_0-\mu_1)^T\omega}{\omega^T(\Sigma_0\Sigma_1)\omega} \end{aligned} J(ω)​ωTΣ0​ωωTΣ1​ω∣∣ωTμ0​−ωTμ1​∣∣22​​ωT(Σ0​Σ1​)ωωT(μ0​−μ1​)(μ0​−μ1​)Tω​​ 定义类内散度矩阵 S ω S_{\omega} Sω​与 ω \omega ω无关 S ω Σ 0 Σ 1 S_{\omega}\Sigma_0\Sigma_1 Sω​Σ0​Σ1​ 类间散度矩阵 S b S_b Sb​与 ω \omega ω无关 S b ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T S_b(\mu_0-\mu_1)(\mu_0-\mu_1)^T Sb​(μ0​−μ1​)(μ0​−μ1​)T 此时优化目标可重写为 J ( ω ) ω T S b ω ω T S ω ω J(\omega)\frac{\omega^TS_b\omega}{\omega^TS_{\omega}\omega} J(ω)ωTSω​ωωTSb​ω​即 S b S_b Sb​与 S ω S_{\omega} Sω​的“广义瑞利商”。 ω \omega ω的确定 分子分母都是关于 ω \omega ω的二次项因此J与 ω \omega ω的长度无关 J ( ω ) ( ω ∣ ω ∣ ) T S b ( ω ∣ ω ∣ ) ( ω ∣ ω ∣ ) T S ω ( ω ∣ ω ∣ ) J(\omega)\frac{\left(\frac{\omega}{|\omega|}\right)^TS_b\left(\frac{\omega}{|\omega|}\right)}{\left(\frac{\omega}{|\omega|}\right)^TS_{\omega}\left(\frac{\omega}{|\omega|}\right)} J(ω)(∣ω∣ω​)TSω​(∣ω∣ω​)(∣ω∣ω​)TSb​(∣ω∣ω​)​只与 ω \omega ω的方向有关。不是一般性令 ω T S ω ω 1 \omega^TS_{\omega}\omega1 ωTSω​ω1则LDA的优化目标等价于 m i n ω − ω T S b ω s . t . ω T S ω ω 1 \begin{aligned} min_{\omega}\quad -\omega^TS_b\omega\\ s.t.\quad \omega^TS_{\omega}\omega1 \end{aligned} minω​−ωTSb​ωs.t.ωTSω​ω1​
http://www.dnsts.com.cn/news/242955.html

相关文章:

  • 酒店网站建设考虑哪些因素都匀网站开发公司
  • 唐山教育平台网站建设免费开源网站模板
  • 建设网站的重点与难点在于网站暂时关闭 seo
  • wordpress是建站最快的WordPress之类的
  • 商城系统的基本深圳关键词优化软件
  • 自己如何高效有力的维护一个网站短链接转换工具
  • 塑胶网站建设wordpress模板区块链
  • 网站提示未备案合肥 网站平台建设公司
  • 如何查看网站抓取频率网站建设 金手指 排名22
  • 做网站的问卷调查移动端下拉框价威cj111602推广
  • 电子商务网站建设编码上海装修公司排名上海装修公司
  • 视频网站 怎么做打开百度网页
  • 网站开发可行性报告个人网站备案可以填几个域名
  • 厦门做商城网站网络建设公司排行
  • 网站建设单页面推广模板wordpress导出word
  • php做网站安性如何学校网站结构图
  • 建设银行大丰支行网站网站回答问题app怎么做
  • 上海网站营销seo方案wordpress能输数学公式吗
  • 建站平台工具广告公司朋友圈创意宣传
  • 室内设计做效果图可以接单的网站网站后台用什么浏览器
  • 注册网站建设网站开发与设计实训心得两千字
  • 网站建设基本流程pptdw是网页制作平台吗
  • 如何查看网站开发的语言资中网站建设
  • 精品课程网站建设验收单乐平网站建设咨询
  • 贵阳网站制作维护建立网站时间
  • 免费建站的站点网站WordPress主题设置数据库
  • 建设网站的准备网站建设邀标方案
  • 抖音网站微信官网网址
  • 收费下载网站源码主流网站
  • 接入备案和增加网站asp.net网站项目建设