网站建设丶金手指下拉十五,织梦网站模板制作,wordpress 类似微博,小程序商城代运营文章目录 概率与统计基础#xff1a;解锁机器学习的数据洞察之门前言一、概率论基础1.1 概率的基本概念与性质1.1.1 概率的定义1.1.2 样本空间与事件1.1.3 互斥事件与独立事件1.1.4 概率的计算方法 1.2 条件概率与独立性1.2.1 条件概率1.2.2 独立事件 1.3 随机变量1.3.1 随机变… 文章目录 概率与统计基础解锁机器学习的数据洞察之门前言一、概率论基础1.1 概率的基本概念与性质1.1.1 概率的定义1.1.2 样本空间与事件1.1.3 互斥事件与独立事件1.1.4 概率的计算方法 1.2 条件概率与独立性1.2.1 条件概率1.2.2 独立事件 1.3 随机变量1.3.1 随机变量的定义1.3.2 离散随机变量1.3.3 连续随机变量1.3.4 随机变量的期望与方差1.3.5 随机变量的应用 二、常见的概率分布2.1 离散概率分布2.1.1 伯努利分布2.1.2 二项分布2.1.3 泊松分布 2.2 连续概率分布2.2.1 正态分布2.2.2 指数分布2.2.3 卡方分布2.2.4 t分布 写在最后 概率与统计基础解锁机器学习的数据洞察之门 欢迎讨论在阅读过程中有任何疑问欢迎在评论区留言我们一起交流学习 点赞、收藏与分享如果你觉得这篇文章对你有帮助记得点赞、收藏并分享给更多对机器学习感兴趣的朋友 开启数据洞察概率与统计是理解数据分布、评估模型性能的重要工具。让我们一起踏入这扇通往数据世界的门揭开机器学习背后的统计奥秘。 前言
机器学习已经成为现代科技的核心驱动力之一而背后支撑这一技术的基础之一就是概率论。在机器学习中概率论帮助我们理解和处理不确定性进而建立模型进行预测和决策。无论是在分类、回归任务还是在强化学习与生成模型中概率论都起着至关重要的作用。
对于刚接触机器学习的朋友来说学习概率论可能会感到有些抽象。其实概率论在机器学习中并非一门完全独立的学科而是为解决实际问题提供了一种框架和思维方式。在本系列中我将用通俗易懂的方式为大家介绍一些最常见的概率分布以及它们在机器学习中的应用帮助大家打好概率论的基础进而更好地理解机器学习的原理与技术。
通过掌握这些基础概念您将能够更好地理解机器学习算法的工作原理并为以后的学习奠定坚实的理论基础。希望本系列内容能帮助您在机器学习的旅程中迈出第一步走得更加稳健。 一、概率论基础
1.1 概率的基本概念与性质 在机器学习和数据科学中概率是一个非常重要的工具它帮助我们理解和量化不确定性。掌握概率的基本概念将为后续深入学习统计学和机器学习提供坚实的基础。 1.1.1 概率的定义
概率Probability是一个数学概念用来表示某一事件发生的可能性。它的取值范围在0到1之间其中
0 表示事件不可能发生。1 表示事件必然发生。
定义 假设事件A是一个随机事件概率记作 P ( A ) P(A) P(A)表示事件A发生的可能性 0 ≤ P ( A ) ≤ 1 0 \leq P(A) \leq 1 0≤P(A)≤1
概率的基本性质
非负性任何事件的概率都是非负的即 P ( A ) ≥ 0 P(A) \geq 0 P(A)≥0。归一性样本空间S中所有可能的事件总概率和为1即 P ( S ) 1 P(S) 1 P(S)1。可加性对于互不相交的事件A和B P ( A ∪ B ) P ( A ) P ( B ) P(A \cup B) P(A) P(B) P(A∪B)P(A)P(B)。 如果事件A和事件B不重合互斥它们发生的概率相加。
例子 假设你掷一枚公平的硬币事件A正面朝上事件B反面朝上。我们知道 P ( A ) 0.5 P(A) 0.5 P(A)0.5 P ( B ) 0.5 P(B) 0.5 P(B)0.5
因为正面和反面是互斥事件不可能同时发生所以 P ( A ∪ B ) P ( A ) P ( B ) 0.5 0.5 1 P(A \cup B) P(A) P(B) 0.5 0.5 1 P(A∪B)P(A)P(B)0.50.51
1.1.2 样本空间与事件 样本空间Sample Space是所有可能结果的集合通常用字母 Ω \Omega Ω 表示。样本空间中的每个元素叫做样本点。 事件Event是样本空间的一个子集是我们关心的某一组可能结果。
例如掷一个六面骰子的例子
样本空间 Ω { 1 , 2 , 3 , 4 , 5 , 6 } \Omega \{1, 2, 3, 4, 5, 6\} Ω{1,2,3,4,5,6}事件A掷出偶数点数 A { 2 , 4 , 6 } A \{2, 4, 6\} A{2,4,6}事件B掷出大于3的点数 B { 4 , 5 , 6 } B \{4, 5, 6\} B{4,5,6}
1.1.3 互斥事件与独立事件 互斥事件两个事件称为互斥事件如果它们不能同时发生。换句话说若事件A和事件B是互斥的则 P ( A ∩ B ) 0 P(A \cap B) 0 P(A∩B)0。 例子 在掷骰子的例子中事件A掷出偶数点数与事件B掷出大于3的点数是互斥的因为它们没有共同的元素。 独立事件两个事件称为独立事件如果一个事件的发生不影响另一个事件的发生。换句话说若事件A和事件B是独立的则 P ( A ∩ B ) P ( A ) ⋅ P ( B ) P(A \cap B) P(A) \cdot P(B) P(A∩B)P(A)⋅P(B) 例子 掷一枚硬币和掷一个骰子是独立事件因为硬币的正反面不影响骰子的点数。
1.1.4 概率的计算方法
概率的计算通常有两种常用的方法频率法和经典法。 频率法基于大量实验结果的观察通过计算事件发生的频率来估计概率。 P ( A ) 事件A发生的次数 实验总次数 P(A) \frac{\text{事件A发生的次数}}{\text{实验总次数}} P(A)实验总次数事件A发生的次数 经典法基于所有可能结果的对称性和等可能性计算每个事件发生的概率。例如掷一枚公平的硬币正面朝上的概率是0.5反面朝上的概率也是0.5。 1.2 条件概率与独立性 在概率论中条件概率和独立性是理解事件之间关系的重要概念。掌握这些概念能够帮助你更好地分析和建模数据尤其是在处理复杂的机器学习问题时。 1.2.1 条件概率
条件概率描述的是在某个事件已发生的条件下另一个事件发生的概率。它帮助我们理解事件之间的依赖关系。
定义 事件B发生的条件下事件A发生的概率记作 P ( A ∣ B ) P(A|B) P(A∣B)其定义为 P ( A ∣ B ) P ( A ∩ B ) P ( B ) P(A|B) \frac{P(A \cap B)}{P(B)} P(A∣B)P(B)P(A∩B) 前提是 P ( B ) 0 P(B) 0 P(B)0。
解释 P ( A ∩ B ) P(A \cap B) P(A∩B)事件A和事件B同时发生的概率。 P ( B ) P(B) P(B)事件B发生的概率。
例子 假设你有一副标准的52张扑克牌事件A抽到一张红心牌事件B抽到一张数字牌2到10。
样本空间 Ω { 所有 52 张牌 } \Omega \{所有52张牌\} Ω{所有52张牌}事件A红心牌共13张。事件B数字牌每个花色有9张2到10共36张。事件A ∩ B红心数字牌共9张。
计算条件概率 P ( A ∣ B ) P(A|B) P(A∣B) P ( A ∣ B ) P ( A ∩ B ) P ( B ) 9 52 36 52 9 36 1 4 0.25 P(A|B) \frac{P(A \cap B)}{P(B)} \frac{\frac{9}{52}}{\frac{36}{52}} \frac{9}{36} \frac{1}{4} 0.25 P(A∣B)P(B)P(A∩B)5236529369410.25
Python代码示例
# 定义总牌数
total_cards 52# 定义事件A红心牌数
red_hearts 13# 定义事件B数字牌数
number_cards 36# 定义事件A ∩ B红心数字牌数
red_hearts_numbers 9# 计算条件概率 P(A|B)
P_A_and_B red_hearts_numbers / total_cards
P_B number_cards / total_cards
P_A_given_B P_A_and_B / P_Bprint(fP(A|B) {P_A_given_B}) # 输出: P(A|B) 0.251.2.2 独立事件
独立事件指的是两个事件之间没有任何依赖关系一个事件的发生与否不影响另一个事件发生的概率。
定义 如果对于任意事件A和B有 P ( A ∩ B ) P ( A ) ⋅ P ( B ) P(A \cap B) P(A) \cdot P(B) P(A∩B)P(A)⋅P(B) 则称事件A与事件B独立。
解释
事件A发生与否不影响事件B的发生概率反之亦然。这意味着知道一个事件的发生情况不会改变另一个事件发生的可能性。
例子 继续使用扑克牌的例子假设事件C抽到一张红心牌事件D抽到一张黑桃牌。
事件C红心牌共13张。事件D黑桃牌共13张。事件C ∩ D不可能同时发生因为一张牌不能同时是红心和黑桃所以 P ( C ∩ D ) 0 P(C \cap D) 0 P(C∩D)0。
计算 P ( C ) ⋅ P ( D ) P(C) \cdot P(D) P(C)⋅P(D) P ( C ) 13 52 , P ( D ) 13 52 P(C) \frac{13}{52}, \quad P(D) \frac{13}{52} P(C)5213,P(D)5213 所以 P ( C ) ⋅ P ( D ) 13 52 ⋅ 13 52 169 2704 0.0625 P(C) \cdot P(D) \frac{13}{52} \cdot \frac{13}{52} \frac{169}{2704} 0.0625 P(C)⋅P(D)5213⋅521327041690.0625
由于 P ( C ∩ D ) 0 ≠ 0.0625 P(C \cap D) 0 \neq 0.0625 P(C∩D)00.0625所以事件C与事件D 不独立。
另一个例子 假设事件E掷一枚公平硬币出现正面事件F掷一枚公平六面骰子出现6。
事件E P ( E ) 0.5 P(E) 0.5 P(E)0.5事件F P ( F ) 1 6 P(F) \frac{1}{6} P(F)61事件E ∩ F两者同时发生的概率为 P ( E ) ⋅ P ( F ) 0.5 ⋅ 1 6 1 12 P(E) \cdot P(F) 0.5 \cdot \frac{1}{6} \frac{1}{12} P(E)⋅P(F)0.5⋅61121
因为 P ( E ∩ F ) P ( E ) ⋅ P ( F ) P(E \cap F) P(E) \cdot P(F) P(E∩F)P(E)⋅P(F)所以事件E与事件F 独立。 Python代码示例
# 定义事件C和事件D
P_C 13 / 52 # 红心牌概率
P_D 13 / 52 # 黑桃牌概率# 计算 P(C ∩ D)
P_C_and_D 0 # 不可能同时抽到红心和黑桃# 计算 P(C) * P(D)
P_C_times_P_D P_C * P_D# 判断是否独立
independent P_C_and_D P_C_times_P_Dprint(fP(C ∩ D) {P_C_and_D})
print(fP(C) * P(D) {P_C_times_P_D})
print(f事件C与事件D独立吗{是 if independent else 否}) # 输出: 否1.3 随机变量 在概率论中随机变量是一个非常重要的概念它将随机事件与数值联系起来使我们能够用数学方法描述和分析随机现象。理解随机变量的类型及其分布对于后续的统计分析和机器学习模型构建至关重要。 1.3.1 随机变量的定义
随机变量Random Variable是一个函数它将样本空间中的每个基本事件映射到一个实数。根据取值的不同随机变量可以分为两大类离散随机变量和连续随机变量。 离散随机变量取值为有限个或可数无限个具体数值。例如掷一枚骰子的点数1到6就是一个离散随机变量。 连续随机变量取值为不可数无限多个数值通常是在某个区间内。例如一个人的身高或体重就是连续随机变量因为它们可以取无限多个值。
1.3.2 离散随机变量
离散随机变量的取值是可数的通常可以列举出来。我们使用概率质量函数Probability Mass Function, PMF)来描述离散随机变量每个可能取值的概率。
定义 对于离散随机变量 X X X其PMF定义为 P ( X x ) p ( x ) P(X x) p(x) P(Xx)p(x) 其中 p ( x ) p(x) p(x)是随机变量 X X X取值为 x x x的概率。
例子掷一枚公平骰子
样本空间 Ω { 1 , 2 , 3 , 4 , 5 , 6 } \Omega \{1, 2, 3, 4, 5, 6\} Ω{1,2,3,4,5,6}随机变量 X X X表示骰子的点数。PMF P ( X x ) 1 6 , x ∈ { 1 , 2 , 3 , 4 , 5 , 6 } P(X x) \frac{1}{6}, \quad x \in \{1, 2, 3, 4, 5, 6\} P(Xx)61,x∈{1,2,3,4,5,6}
Python代码示例计算骰子的PMF
import numpy as np# 定义骰子的可能点数
dice_outcomes [1, 2, 3, 4, 5, 6]# 计算每个点数的概率公平骰子
pmf {outcome: 1/6 for outcome in dice_outcomes}print(骰子的概率质量函数PMF)
for outcome, probability in pmf.items():print(fP(X{outcome}) {probability})输出
骰子的概率质量函数PMF
P(X1) 0.16666666666666666
P(X2) 0.16666666666666666
P(X3) 0.16666666666666666
P(X4) 0.16666666666666666
P(X5) 0.16666666666666666
P(X6) 0.166666666666666661.3.3 连续随机变量
连续随机变量的取值是不可数的通常在某个区间内取任意实数。我们使用概率密度函数Probability Density Function, PDF)来描述连续随机变量在不同取值区间内的相对可能性。
定义 对于连续随机变量 X X X其PDF定义为 f ( x ) d d x P ( X ≤ x ) f(x) \frac{d}{dx}P(X \leq x) f(x)dxdP(X≤x) 概率密度函数的性质包括 f ( x ) ≥ 0 f(x) \geq 0 f(x)≥0对所有 x x x成立。 ∫ − ∞ ∞ f ( x ) d x 1 \int_{-\infty}^{\infty} f(x) dx 1 ∫−∞∞f(x)dx1。
例子正态分布
正态分布是最常见的连续分布之一具有钟形曲线的特性。 参数 均值Mean μ \mu μ决定分布的中心位置。标准差Standard Deviation σ \sigma σ决定分布的宽度和形状。 概率密度函数 f ( x ) 1 σ 2 π e − ( x − μ ) 2 2 σ 2 f(x) \frac{1}{\sigma \sqrt{2\pi}} e^{ -\frac{(x - \mu)^2}{2\sigma^2} } f(x)σ2π 1e−2σ2(x−μ)2
Python代码示例绘制正态分布的PDF
import numpy as np
import matplotlib.pyplot as plt# 定义均值和标准差
mu, sigma 0, 1# 生成x值
x np.linspace(mu - 4*sigma, mu 4*sigma, 1000)# 计算PDF
pdf (1/(sigma * np.sqrt(2 * np.pi))) * np.exp(-0.5 * ((x - mu)/sigma)**2)# 绘制图形
plt.plot(x, pdf, label正态分布)
plt.title(正态分布的概率密度函数PDF)
plt.xlabel(x)
plt.ylabel(f(x))
plt.legend()
plt.grid(True)
plt.show()输出 1.3.4 随机变量的期望与方差
期望Expectation和方差Variance)是描述随机变量分布特性的两个重要指标。 期望均值 离散随机变量 E [ X ] ∑ x x ⋅ P ( X x ) E[X] \sum_{x} x \cdot P(X x) E[X]x∑x⋅P(Xx)连续随机变量 E [ X ] ∫ − ∞ ∞ x ⋅ f ( x ) d x E[X] \int_{-\infty}^{\infty} x \cdot f(x) dx E[X]∫−∞∞x⋅f(x)dx 方差 离散随机变量 V a r ( X ) E [ ( X − E [ X ] ) 2 ] ∑ x ( x − E [ X ] ) 2 ⋅ P ( X x ) Var(X) E[(X - E[X])^2] \sum_{x} (x - E[X])^2 \cdot P(X x) Var(X)E[(X−E[X])2]x∑(x−E[X])2⋅P(Xx)连续随机变量 V a r ( X ) E [ ( X − E [ X ] ) 2 ] ∫ − ∞ ∞ ( x − E [ X ] ) 2 ⋅ f ( x ) d x Var(X) E[(X - E[X])^2] \int_{-\infty}^{\infty} (x - E[X])^2 \cdot f(x) dx Var(X)E[(X−E[X])2]∫−∞∞(x−E[X])2⋅f(x)dx
例子正态分布的期望与方差
对于正态分布 N ( μ , σ 2 ) N(\mu, \sigma^2) N(μ,σ2)
期望 E [ X ] μ E[X] \mu E[X]μ方差 V a r ( X ) σ 2 Var(X) \sigma^2 Var(X)σ2
Python代码示例计算期望与方差
import numpy as np
import matplotlib.pyplot as plt# 定义均值和标准差
mu, sigma 0, 1# 生成正态分布数据
data np.random.normal(mu, sigma, 1000000)# 计算期望和方差
expected np.mean(data)
variance np.var(data)print(f期望均值: {expected})
print(f方差: {variance})输出
期望均值: 0.000123456
方差: 1.000789012注由于随机性具体数值可能略有不同但应接近 μ \mu μ和 σ 2 \sigma^2 σ2)
1.3.5 随机变量的应用
随机变量在机器学习中有广泛的应用例如
数据分布建模了解数据的分布特性有助于选择合适的模型和算法。概率生成模型如朴素贝叶斯分类器通过建模数据的概率分布来进行分类预测。参数估计与假设检验在模型评估中通过统计指标来判断模型的性能和适用性。
Python代码示例计算正态分布的期望与方差
import numpy as np
import matplotlib.pyplot as plt# 定义均值和标准差
mu, sigma 5, 2# 生成正态分布数据
data np.random.normal(mu, sigma, 100000)# 计算期望和方差
expected np.mean(data)
variance np.var(data)print(f期望均值: {expected}) # 接近5
print(f方差: {variance}) # 接近4输出
期望均值: 4.9987654321
方差: 4.0123456789二、常见的概率分布
2.1 离散概率分布 在概率论中离散概率分布用于描述离散随机变量的概率结构。我们将重点介绍最常见的几种离散分布它们在数据建模、机器学习以及许多实际问题中广泛应用。 2.1.1 伯努利分布 伯努利分布是最基础的离散分布描述的是只有两种可能结果成功或失败的随机试验。 定义 假设随机变量 X X X表示一次伯努利试验的结果其取值为0或1表示失败或成功。成功的概率为 p p p失败的概率为 1 − p 1-p 1−p。
概率质量函数PMF P ( X 1 ) p , P ( X 0 ) 1 − p P(X 1) p, \quad P(X 0) 1 - p P(X1)p,P(X0)1−p
其中 0 ≤ p ≤ 1 0 \leq p \leq 1 0≤p≤1。
例子 抛一枚硬币 X X X表示是否出现正面。正面朝上的概率为 p 0.5 p 0.5 p0.5反面朝上的概率为 1 − p 0.5 1 - p 0.5 1−p0.5。
Python代码示例
import numpy as np# 定义成功的概率
p 0.5# 计算PMF
pmf {0: 1 - p, 1: p}print(伯努利分布的PMF)
for outcome, probability in pmf.items():print(fP(X{outcome}) {probability})输出
伯努利分布的PMF
P(X0) 0.5
P(X1) 0.52.1.2 二项分布 二项分布是多个独立的伯努利试验的结果之和。它描述了在 n n n次独立的伯努利试验中成功发生的次数。 定义 设 X X X表示在 n n n次试验中成功的次数 p p p为单次试验成功的概率 X X X服从二项分布 B ( n , p ) B(n, p) B(n,p)其概率质量函数为 P ( X k ) ( n k ) p k ( 1 − p ) n − k , k 0 , 1 , 2 , … , n P(X k) \binom{n}{k} p^k (1 - p)^{n-k}, \quad k 0, 1, 2, \dots, n P(Xk)(kn)pk(1−p)n−k,k0,1,2,…,n 其中 ( n k ) \binom{n}{k} (kn)为二项系数表示从 n n n次试验中选取 k k k次成功的组合数。
例子 在10次掷骰子中出现正面的次数。每次掷骰子成功出现正面的概率为 p 1 / 6 p 1/6 p1/6。
Python代码示例
from scipy.stats import binom
import matplotlib.pyplot as plt# 定义参数
n 10 # 试验次数
p 1/6 # 成功概率# 计算PMF
x np.arange(0, n1)
pmf binom.pmf(x, n, p)# 绘制图形
plt.bar(x, pmf)
plt.title(二项分布的概率质量函数)
plt.xlabel(成功次数)
plt.ylabel(概率)
plt.show()输出 2.1.3 泊松分布 泊松分布是用于描述在固定时间或空间内某个事件发生次数的分布特别适用于描述稀有事件的发生。 定义 泊松分布的概率质量函数为 P ( X k ) λ k e − λ k ! , k 0 , 1 , 2 , … P(X k) \frac{\lambda^k e^{-\lambda}}{k!}, \quad k 0, 1, 2, \dots P(Xk)k!λke−λ,k0,1,2,… 其中 λ \lambda λ是单位时间或空间内的平均事件发生次数。
例子 假设某个城市每小时平均发生3起交通事故求某一小时内发生2起事故的概率。
Python代码示例
from scipy.stats import poisson
import matplotlib.pyplot as plt# 定义平均发生率λ
lambda_ 3# 计算PMF
x np.arange(0, 10)
pmf poisson.pmf(x, lambda_)# 绘制图形
plt.bar(x, pmf)
plt.title(泊松分布的概率质量函数)
plt.xlabel(事件发生次数)
plt.ylabel(概率)
plt.show()输出 2.2 连续概率分布 与离散分布不同连续概率分布用于描述连续随机变量。我们重点介绍常见的正态分布和指数分布。 2.2.1 正态分布 正态分布也叫高斯分布是最常见的连续概率分布之一。它广泛应用于自然界的现象和许多统计学方法中。 定义 正态分布的概率密度函数PDF为 f ( x ) 1 σ 2 π e − ( x − μ ) 2 2 σ 2 f(x) \frac{1}{\sigma \sqrt{2\pi}} e^{ -\frac{(x - \mu)^2}{2\sigma^2} } f(x)σ2π 1e−2σ2(x−μ)2 其中 μ \mu μ为均值 σ \sigma σ为标准差 x x x为随机变量。
例子 假设学生的考试成绩服从正态分布均值为 μ 70 \mu 70 μ70标准差为 σ 10 \sigma 10 σ10。
Python代码示例
import numpy as np
import matplotlib.pyplot as plt# 定义均值和标准差
mu, sigma 70, 10# 生成x值
x np.linspace(mu - 4*sigma, mu 4*sigma, 1000)# 计算PDF
pdf (1/(sigma * np.sqrt(2 * np.pi))) * np.exp(-0.5 * ((x - mu)/sigma)**2)# 绘制图形
plt.plot(x, pdf, label正态分布)
plt.title(正态分布的概率密度函数PDF)
plt.xlabel(考试成绩)
plt.ylabel(概率密度)
plt.legend()
plt.grid(True)
plt.show()输出 2.2.2 指数分布 指数分布用于描述某些类型的连续随机事件发生的时间间隔特别是无记忆性质的事件。 定义 指数分布的概率密度函数为 f ( x ; λ ) λ e − λ x , x ≥ 0 f(x; \lambda) \lambda e^{-\lambda x}, \quad x \geq 0 f(x;λ)λe−λx,x≥0 其中 λ \lambda λ为分布的参数速率 x x x为时间间隔。
例子 假设某个电话客服中心接到电话的平均速率为每分钟1通即 λ 1 \lambda 1 λ1我们想计算在3分钟内接到电话的概率。
Python代码示例
from scipy.stats import expon# 定义速率λ
lambda_rate 1# 计算PDF
x np.linspace(0, 10, 1000)
pdf expon.pdf(x, scale1/lambda_rate)# 绘制图形
plt.plot(x, pdf, label指数分布)
plt.title(指数分布的概率密度函数PDF)
plt.xlabel(时间分钟)
plt.ylabel(概率密度)
plt.legend()
plt.grid(True)
plt.show()输出 2.2.3 卡方分布 卡方分布广泛用于假设检验尤其是用于检验两个变量是否独立。它是正态分布的平方和。 定义 卡方分布的概率密度函数为 f ( x ; k ) x k 2 − 1 e − x 2 2 k 2 Γ ( k 2 ) , x ≥ 0 f(x; k) \frac{x^{\frac{k}{2} - 1} e^{-\frac{x}{2}}}{2^{\frac{k}{2}} \Gamma\left(\frac{k}{2}\right)}, \quad x \geq 0 f(x;k)22kΓ(2k)x2k−1e−2x,x≥0 其中 k k k为自由度 Γ \Gamma Γ是伽马函数。
例子 假设我们进行一个假设检验检验样本的方差是否符合某一分布可以使用卡方分布来计算检验统计量。
Python代码示例
from scipy.stats import chi2
import matplotlib.pyplot as plt# 定义自由度
df 3# 计算PDF
x np.linspace(0, 10, 1000)
pdf chi2.pdf(x, df)# 绘制图形
plt.plot(x, pdf, label卡方分布)
plt.title(卡方分布的概率密度函数PDF)
plt.xlabel(值)
plt.ylabel(概率密度)
plt.legend()
plt.grid(True)
plt.show()输出 2.2.4 t分布 t分布通常用于样本容量较小的情形尤其在样本方差未知的情况下通常与正态分布一起使用进行假设检验。 定义 t分布的概率密度函数为 f ( x ; ν ) Γ ( ν 1 2 ) ν π Γ ( ν 2 ) ( 1 x 2 ν ) − ν 1 2 , x ∈ ( − ∞ , ∞ ) f(x; \nu) \frac{\Gamma\left(\frac{\nu 1}{2}\right)}{\sqrt{\nu \pi} \Gamma\left(\frac{\nu}{2}\right)} \left(1 \frac{x^2}{\nu}\right)^{-\frac{\nu 1}{2}}, \quad x \in (-\infty, \infty) f(x;ν)νπ Γ(2ν)Γ(2ν1)(1νx2)−2ν1,x∈(−∞,∞) 其中 ν \nu ν是自由度。
例子 假设我们从小样本中估计一个群体的均值并使用t分布进行检验。
Python代码示例
from scipy.stats import t
import matplotlib.pyplot as plt# 定义自由度
df 5# 计算PDF
x np.linspace(-5, 5, 1000)
pdf t.pdf(x, df)# 绘制图形
plt.plot(x, pdf, labelt分布)
plt.title(t分布的概率密度函数PDF)
plt.xlabel(值)
plt.ylabel(概率密度)
plt.legend()
plt.grid(True)
plt.show()输出 写在最后 通过对常见概率分布的讲解我们为理解机器学习中的模型选择和优化提供了基础。概率分布不仅在数据预处理阶段扮演关键角色也影响着模型的假设检验和预测效果。在接下来的章节中我们将进一步探讨如何将这些理论应用于实际的机器学习算法如分类与回归模型中如何通过合适的概率模型提升算法的表现。 以上就是关于【机器学习】在不确定的光影中机器学习与概率论的心灵共舞的内容啦各位大佬有什么问题欢迎在评论区指正或者私信我也是可以的啦您的支持是我创作的最大动力❤️