光速是怎样测出的?太阳和地球的距离怎样测出的?

如题所述

第一个比较正确的光速值,是用天体测量得到的。

1675年,丹麦天文学家罗麦注意到,木卫消失在木星阴影里的时间间隔逐次不同,它随着各次卫星掩蚀时,木星和地球之间距离的不同而变长或变短。认识到这是由于在长短不同的路程上,光线传播需要不同时间。根据这种想法,罗麦推算出c等于2乘以108米每秒。

1849年,地面实验中才有较好的光速测量。当时,法国物理学家斐索利用高速齿轮进行这项工作。

1862年,傅科成功地发展了另一种测定光速的方法,用一个高速转镜来测量微小的时间间隔。

追问

罗麦推算出c等于2乘以108米每秒,这是光速吗?完整回答后必采纳。

追答

后来,克里斯蒂安·惠更斯利用这一数据加上对地球公转直径的估值,计算出光速大约为22万千米每秒,这一数据约有26%的误差。
艾萨克·牛顿(Isaac Newton)在其1704年出版的《光学》一书中描述了罗默对光速的计算,并给出了光从太阳到地球传播所需的时间为“七到八分钟”。
罗默和惠更斯的结果和实际相差非常巨大。直到19世纪,阿曼德·斐索发明了旋转齿轮法,并得出了315000 km/s的光速数值。莱昂·傅科进一步完善了斐索的方法,在1862年所得出的数值为298000 km/s。这一数据已经非常接近准确值了。

追问

好的,但看上面还有个太阳和地球的距离?

追答

太阳和地球的距离
根据牛顿的万有引力算出来的 F=G(mM/R*R)
G是常量G=6.67259*10的负11次 通常取6.67*10的负11次
m是地球的质量
M是太阳的质量
R*R两星球中心的距离的平方
M=r(2*3.141596{Pai})R平方/G G是常量G=6.67259*10的负11次

温馨提示:答案为网友推荐,仅供参考
相似回答