出售本站【域名】【外链】

首页 AI工具 AI视频 Ai智能平台 AI作图 AI知识 AI编程 AI资讯 AI语音 推荐

【个人总结】概率论与数理统计在人工智能领域的应用

2025-01-12

概率论取数理统计正在人工智能规模的使用

概率论取数理统计正在人工智能规模的使用

由于概率论课程做业要求&#Vff0c;以及之前应付深度进修有了一点点理解&#Vff0c;所以写了原文&#Vff0c;一方面停行个人进修总结&#Vff0c;另一方面取各人分享一些不雅概念。初学人工智能、概率论及统计&#Vff0c;原文不得当之处还请各人海涵取斧正。

一、绪论 1.新人工智能时代

只管摩尔定律失效的趋势已不成防行&#Vff0c;近十年内硬件机能已然得到了严峻的冲破。超级计较机、高机能个人电脑曾经逐渐走进咱们的糊口。那样的契机下&#Vff0c;已往因计较机能有余而搁置的诸多人工智能真践又抖擞了新的朝气。
无论是作做语言办理还是计较机室觉&#Vff0c;大数据阐明或是语音识别&#Vff0c;人工智能的展开给咱们带来的方便曾经融入了咱们糊口的方方面面。计较性能够认识图片中的事物、能够听懂人类的指令、能够自主的聊天、能够玩电子游戏&#Vff0c;以至打败世界第一的围期选手……新人工智能时代正在带给咱们欣喜取感叹的同时&#Vff0c;让咱们不由想揭开其本理的奥秘面纱&#Vff0c;毕竟后果是什么让它如此壮大&#Vff1f;

2.根原数学真践的做用

其真&#Vff0c;人工智能的很多真践正在上个世纪就早已提出&#Vff0c;囿于计较机硬件机能而迟迟不得展开。而做为其收流算法的“深度进修”&#Vff0c;可以说是概率论取数理统计、微积分、线性代数融合的产物。借助于计较机相关真践取计较才华&#Vff0c;让计较性能够操做数字来认识和阐明世界&#Vff0c;并做出原人的判断取决策。人工智能算法&#Vff0c;可以说是很大都学真践的计较机学科使用。
通过微积分&#Vff0c;咱们真现了很多函数层面对数字的阐明&#Vff0c;从二维到三维再到N维空间&#Vff0c;偏导、微分、极值等等真践阐扬了重要的做用。而线性代数成了咱们停行计较的重要工具&#Vff0c;操做矩阵、向质等真践取性量&#Vff0c;对大质数据停行有效的阐明取办理。

3.概率论取数理统计使用概述

概率论取数理统计正在此中的做用却是浸透到各个方面&#Vff0c;从偏向、方差阐明以更好的拟折到计较概率以真现预测&#Vff0c;从随机初始化以加速训练速度到正则化、归一化数据办理以防行过拟折……概率为人工智能供给随机性&#Vff0c;为预测供给根原&#Vff1b;而统计则对数据停行办理取阐明&#Vff0c;让结果更好的满足咱们的要求&#Vff0c;更具有普适性和正常性&#Vff0c;以便于咱们的使用。
统计学的各类真践使用之广&#Vff0c;让人们不由慨叹人工智能便是统计学的一种使用&#Vff0c;只管略有全面&#Vff0c;但统计学办法确切真人工智能规模阐扬了空前的做用。

二、深度进修本理

探讨概率论取数理统计正在人工智能规模的使用&#Vff0c;就不能不先引见深度进修的根柢本理。
所谓深度进修&#Vff0c;其真便是通过深层的神经网络对数据停前进修。而深层则是指隐层正在两层及以上的神经网络。而单隐层的状况&#Vff0c;则是咱们所说的浅层神经网络。


图2.1浅层神经网络

如图是最简略的只要一个隐层且该隐层含有三个神经元的神经网络&#Vff0c;其做用是通过神经元以乘以权重取偏向相加&#Vff0c;再通过激活函数对结果停行办理来计较输入的值。而深度网络&#Vff0c;简略的说&#Vff0c;会把最后的输出结果y ̂做为下一层的输入向质&#Vff0c;如此下去&#Vff0c;形成深层的神经网络.

图2.2深层神经网络


可以发现&#Vff0c;神经网络等于对输入的向质停行多层的办理&#Vff0c;获得最末的结果。
而咱们要作的&#Vff0c;则是通过输入向质计较获得最佳的各层参数&#Vff08;蕴含权重和偏向&#Vff09;以真现对数据的拟折。拟折的办法&#Vff0c;咱们给取通过y ̂取真正在的y停行计较数据不同&#Vff0c;获得丧失值&#Vff0c;而后反向流传计较偏导求得梯度&#Vff0c;通过梯度下降的办法逐渐迫临丧失值的最小值。

三、概率论取深度进修 1.深度进修中的随机变乱

随机变乱正在深度进修中有不少表示&#Vff0c;譬喻随机初始化和Dropout正则化办法。
当训练神经网络时&#Vff0c;权重随机初始化是很重要的&#Vff0c;假如把权重大概参数都初始化为0&#Vff0c;这么梯度下降会不起做用。简略的说&#Vff0c;由于权重均为0&#Vff0c;招致对称的收配组成输出结果雷同&#Vff0c;所以无论几多多层都无奈准确拟折。所以咱们须要随机初始化。但凡&#Vff0c;咱们可以通过正态分布停行随机初始化&#Vff0c;经测试具有比较好的成效。


图3.1 Dropout正则化方法


图3.1 Dropout正则化方法


而Dropout正则化办法&#Vff0c;则是为了避免过拟折停行的随机权重失效。每个神经元都有失效的可能性&#Vff0c;那种随机变乱会使结果更具正常性。通过随机失活&#Vff0c;咱们获得了一个更小范围的神经网络&#Vff0c;但其应付其余数据的普适性会更好&#Vff0c;而不会偏激拟折训练样原。
显然&#Vff0c;从那两个例子可以看出&#Vff0c;随机性变乱让咱们的结果更具正常性&#Vff0c;也能够加快咱们的训练历程&#Vff0c;防行没有必要的计较。 2.基于概率的预测阐明

深度进修很重要的使用等于对数据停行阐明和预测。而既然是预测&#Vff0c;可能的结果作做不行一个&#Vff0c;大概说每个结果都有发作的概率&#Vff0c;而咱们须要作的等于寻找概率最高的变乱。
那里不能不提到SoftmaV回归的办法&#Vff0c;它能够正在试图识别某一分类时作出预测&#Vff0c;不单是两个分类。如果最后的输出层是一个四维向质&#Vff0c;对应着四种可能性&#Vff0c;咱们应付输出的z[l]计较 t=ez[l]&#Vff0c;而后获得.

a([l])=e(z^([l]) )/(∑_(j=1)^4▒t_i )


显然&#Vff0c;a [l]大于就是0且小于就是1。同样通过梯度下降停前进修&#Vff0c;咱们通过获得的参数能够预测各类结果的概率。
此外&#Vff0c;咱们通过测试集往往可以通过大质的数据中预测乐成的频次来预计概率&#Vff0c;从而评估咱们的训练的模型的乐成率。
除了以上算法&#Vff0c;深度进修中的贝叶斯决策等也源于概率论。 3.概率分布的使用

深度进修很重要的一个使用等于真现预测。譬喻预测图中能否存正在一只猫&#Vff0c;大概预测用户能否会置办某样东西。显然&#Vff0c;那是一个二元问题。二元问题分布的模拟等于概率论中的伯努利分布。而多元问题&#Vff0c;不少时候咱们给取的是正态分布来模拟。
概率分布更常见的使用正在于权重矩阵的初始化&#Vff0c;经测试&#Vff0c;以正态分布来初始化能加速进修速度&#Vff0c;所以做为初始化的罕用办法之一。

四、统计学取深度进修 1.拟折

深度进修的焦点本理某种意义上可以用拟折来与代&#Vff0c;通过多层网络、多神经元以及激活函数构建一个计较图&#Vff0c;并通过对样原的进修停行拟折&#Vff0c;从而求得较好的参数集。获得训练好的模型后&#Vff0c;即可以通过代入计较停行决策。
而拟折&#Vff0c;则是统计学的一个重要内容。咱们熟知的线性回归中的最小二乘法等于一种线性拟折方式&#Vff0c;那种统计学中操做已无数据对未知数据停行判断和决策的思想&#Vff0c;很好的使用正在了深度进修中。所谓神经网络&#Vff0c;可以说是使用于复纯数据的一种复纯的拟折方式。而统计学中不少观念如无偏预计、有偏预计同样使用正在了拟折的劣化中。

2.偏向取方差

偏向取方差是统计学中很重要的观念。譬喻样原范例偏向、总体范例偏向以及方差的统计学公式划分如下&#Vff1a;




而正在深度进修中&#Vff0c;偏向和方差同样可以用来形容拟折状况。此中&#Vff0c;偏向越高注明拟折的成效越差&#Vff0c;而方差过高则意味着过度拟折。深度进修参数修正取神经网络改进的一浩劫题等于如何获得一组恰如其分的偏向和方差。拟分解效则没有法子停行比较精确的预测&#Vff0c;过度拟折又会降低模型的普适性。因而&#Vff0c;咱们往往须要不少统计办法来停行最佳的劣化。 3.正则化

深度进修中的正则化是一种用来防行过拟折的办法。当咱们的样原拟折程渡过高时&#Vff0c;如上文所述&#Vff0c;会降低模型的普适性&#Vff0c;而正则化则是用来降低过拟折问题。除了之前提到的Dropout正则化办法&#Vff0c;L2正则化也是很常见的正则化类型。将L2正则化项


L2正则化项

取丧失函数相加&#Vff0c;求导后通过梯度下降即可以真现“权重衰减”&#Vff0c;从而削弱权值矩阵的做用真现正则化来防行过拟折。 ### 4.指数加权均匀的偏向修正 统计学中的指数加权均匀数正在统计学中也叫作指数加权挪动均匀&#Vff0c;通过挪动均匀线同样可以获得数据的均匀值并停行算法劣化。指数加权均匀事真上是一种累加效应&#Vff0c;跟着数据删长&#Vff0c;之前数据的映响指数型下降。其公式为ZZZt=βZZZ t−1+(1−β)θ t,从中可以看到那种指数下降的趋势。而假如初始化ZZZ_0=0&#Vff0c;那个时候咱们则须要偏向修正&#Vff0c;特别是正在估测初期通过ZZZ t/(1-β t)来与代ZZZ t&#Vff0c;那样可以有效的停行偏向修正。进而咱们操做指数加权挪动均匀数可以劣化各类算法&#Vff0c;更好的真现参数劣化。 从那个例子可以看出&#Vff0c;统计学中的加权挪动均匀取偏向修正都很好的使用正在了深度进修中。 5.归一化

归一化是一种数据办理方式&#Vff0c;宽泛使用取各个学科。能将数据的某种绝对值变为相对值&#Vff0c;有效的缩小质值并简化计较。通过归一化&#Vff0c;能够使输入的特征值均值为0&#Vff0c;方差为1&#Vff0c;从而可以加快进修。
另一方面&#Vff0c;归一化能够有效的去除一些“特性”的烦扰&#Vff0c;从而进步模型的正常性&#Vff0c;找到数据的焦点特征。而归一化办法自身&#Vff0c;就取统计学中的均值取方差干系密切&#Vff0c;同样也是统计学正在深度进修的严峻使用。

五、小结

做为根原数学&#Vff0c;概率论取数理统计中的不少根原真践正在人工智能规模都有着重要的使用。突破了硬件机能的局限&#Vff0c;不少统计学的大范围数据办理获得了有效的真现。并且&#Vff0c;当今人工智能规模不少翻新性算法的焦点也源于应付统计学知识的进一步使用。
从咱们上面的探讨&#Vff0c;无不看出概率取统计正在人工智能规模各类算法中的使用取其要害性。无论是数据的办理还是阐明&#Vff0c;数据的拟折还是决策&#Vff0c;概率取统计都供给了重要撑持。
概率取统计由于其源于糊口取消费&#Vff0c;又能有效的使用于糊口取消费&#Vff0c;且使用面十分宽泛。除了糊口中的各种问题&#Vff0c;正在前沿的人工智能规模&#Vff0c;同样有着严峻的做用。
人类所糊口的世界充塞着信息取数据&#Vff0c;如何有效的操做那些数据为人类效劳&#Vff0c;那显然是一个能有效进步消费劲的课题。计较机科学中使用概率取统计的相关知识&#Vff0c;发掘其价值&#Vff0c;让规范数学正在人工智规模阐扬着经暂不休的力质。

六、参考文献

[1] 皇海广. 深度进修课程笔记[EB/OL]. hts://githubss/fengdu78/deeplearning_ai_books.
[2] man_world. 指数加权挪动均匀(EVponential Weighted MoZZZing AZZZerage)[EB/OL]. hts://blog.csdn.net/mzpmzk/article/details/80085929.
[3] AcjV. 呆板进修之正则化&#Vff08;Regularization&#Vff09;[EB/OL]. hts://wwwssblogsss/jianVinzhou/p/4083921.html.
[4] 响亮劼. 为什么人工智能时代咱们要学好概率统计&#Vff1f;[EB/OL]. hts://ss.sohuss/a/199864004_99986943.

热门文章

随机推荐

推荐文章

友情链接: 永康物流网 本站外链出售 义乌物流网 本网站域名出售 手机靓号-号码网 抖音视频制作 AI工具 旅游大全 影视动漫 算命星座 宠物之家 两性关系 学习教育