推荐星级:
  • 1
  • 2
  • 3
  • 4
  • 5

基于Python和梯度下降算法的物理实验数据一元线性拟合方法

更新时间:2019-12-24 07:50:31 大小:1M 上传用户:songhuahua查看TA发布的资源 标签:python 下载积分:1分 评价赚积分 (如何评价?) 打赏 收藏 评论(0) 举报

资料介绍

介绍了用Python实现梯度下降算法的方法.以3个大学物理实验(光电效应测量普朗克常量、光泵磁共振测量朗德因子以及偏振光实验验证马吕斯定律)为例,用相关系数r和拟合优度R~2作为指标,检验梯度下降算法对物理实验数据线性拟合处理的效果,对以Python和梯度下降算法为切入点,了解深度学习和人工智能算法有启发意义.


部分文件列表

文件名 大小
基于Python和梯度下降算法的物理实验数据一元线性拟合方法.pdf 1M

【关注B站账户领20积分】

部分页面预览

(完整内容请下载后查看)
2019  
10  
年第  
物理通报  
教育技术应用  
Python  
基于  
法的物理  
实验数据线合方法  
关毅铬  
程敏熙  
(
510006)  
学物理  
广广州  
(
: 2019-03-04)  
收稿日期  
:
介绍用  
Python . 3 ( 、  
实现的方以 个学物理实验 效应测量共  
2
R ,  
测量及偏实验验定律 用相关系数 和法  
)
r
对物理实验数据线合处理的以  
Python  
解深启  
义  
: Python  
关键词  
法  
线合  
学物理实验  
n
回归分析只包括自变变  
1
2
+
( b m x )  
i
y  
i
N
=
1
, ,  
关系用一直线回归  
i
i i N .  
数据 总的本个把  
分析线回归分析 最  
m b .  
这个作是 和 的方个  
m
b
常用器学来递归  
的二问题就转变  
, , ,  
性地对数据关系很  
1]  
问题 我们可以解  
m
b
关系来说效  
它是迭  
以确直线  
可以解最问题 所我  
可以法来处理线关系的实验数  
1
法的介  
11  
法  
线回归其实直线 条  
直线能以误差合数据  
1 xy.  
如图 横坐元  
=
+
mx  
y  
线回归要中的直线 用  
b
,  
有的点都在这直线现  
.  
以这靠近直线 点  
=
+
m x  
y
b
线 简  
直线离  
ie  
i
, ,  
单起转化为误差可以为  
n
1
2
=
=
Loss  
( y  
1
y )  
ie  
i
1
线回归理  
N
=
i
更好地数  
:
作者简介  
( 1996- ) , , , (  
硕士研究生 研究方教学 物理  
) .  
:
通讯作者 敏熙  
( 1962- ) , , , .  
男 博研究方物理实验计  
92 —  
2019  
10  
年第  
物理通报  
教育技术应用  
) .  
, ,  
图  
点  
实现主要  
def  
learning_ratenum_iter) :  
Python  
下所示  
2( a)  
,  
这个什么只要下  
optimizer( starting_bstarting_m,  
, ,  
沿下  
.  
去 就能达这个个式子  
n
=
b
starting_b  
1
2
+
( m b x ) ] }  
{
[ y  
i
i
=
m starting_m  
for i in range( num_iter) :  
N
Loss  
i
=
=
m
m
n
=
bm  
compute_gradient( bm,  
2
2
+
( b m x ) ]  
x [ y  
i
i
i
N
learning_rate)  
return bm]  
compute_gradient( b_currentm_current,  
learning_rate) :  
b_gradient  
=
i
1
n
1
2
+
( b m x ) ] }  
{
[ y  
i
i
N
def  
Loss  
i
=
=
b
b
n
=
2
0
2
+
( b m x ) ]  
[ y  
i
i
N
=
i
1
=
m_gradient 0  
, ,  
再  
=
N
float( len( data) )  
= -  
代值多少样就点  
b_gradient  
( 2 /N) * ( y  
m_current* x b_current)  
,  
靠近机就可以  
=
=
np.sum( b_gradientaxis 0)  
b_gradient  
, ,  
边求去更新  
m
b,  
最后到  
= -  
( 2 /N) * x* ( y  
m_gradient  
m
b
值  
的  
m_current* x b_current)  
=
=
m_gradient  
np.sum( m_gradientaxis  
0)  
=
( learning_rate *  
new_b  
b_current  
b_gradient)  
new_m  
m_gradient)  
return new_bnew_m]  
合结标  
=
( learning_rate *  
m_current  
12  
m
b .  
和 的即找到了合的直线  
出  
r
数据处理中会用相关系关  
2
性 用度  
R
回归直线程度  
关关系定性关系 关系数是  
研究量之线性相程度关系线  
r ,  
性相关系字母 量两个变量  
. r  
线关系 于  
± 1  
可以个变量  
2
法示图  
比较好  
2]  
可以这法 如图  
2( b)  
示  
关系式为  
代表中心值  
y)  
( x  
x) ( y  
i
i
=
r
, (  
据当前置求定  
2
2
y)  
( x  
x)  
( y  
i
i
)
与步长共决定前进长找  
回归直线测值程度  
目标数  
2
2
R .R  
统计数  
为  
( ,  
点 如目标数是达全局  
2
1.R  
1,  
明回归直线测值合  
93 —  

全部评论(0)

暂无评论

上传资源 上传优质资源有赏金

  • 打赏
  • 30日榜单

推荐下载