人类是怎样测定光速的?

用什么方法测定光速,最好有原理!

第一个尝试测量光速的,也是伽利略。他和他的助手在夜间相隔数公里远面对面地站着,每人拿一盏灯,灯有开关(注意当时还没有电的知识,更没有电灯。)当伽利略在某个时刻打开灯,一束光向助手方向射去,助手看到灯后马上打开自己的灯。伽利略试图测出从他开灯到他看到助手开灯之间的时差,从而算出光速。但这个实验失败了,因为光传播速度太快,现在知道,要想通过这种方法测出光速,必须能测出10-5秒的时差,这在当时是完全不可能的。

第一个比较正确的光速值,是用天体测量得到的。1675年,丹麦天文学家罗麦注意到,木卫消失在木星阴影里的时间间隔逐次不同,它随着各次卫星掩蚀时,木星和地球之间距离的不同而变长或变短。他认识到这是由于在长短不同的路程上,光线传播需要不同时间。根据这种想法,罗麦推算出c=2×108米/秒。

直到1849年,地面实验中才有较好的光速测量。当时,法国物理学家斐索利用高速齿轮进行这项工作。1862年,傅科成功地发展了另一种测定光速的方法,他用一个高速转镜来测量微小的时间间隔。下图是经过改进后的实验装置示意图。转镜是一个正八面的钢质棱镜,从光源S发出的光射到转镜面R上,经R反射后又射到35公里以外的一块反射镜C上,光线再经反射后回到转镜。所用时间是t=2D/c。在t时间中转镜转过一个角度。实验时,逐渐加快转镜转速,当转速达到528转/秒时,在t时间里正好转过1/8圈。返回的光恰恰在棱镜的下一个面上,通过半透镜M可以从望远镜里看到返回光线所成的像。用这种方法得到c=299,796±4公里/秒。

近代测量光速的方法,是先准确地测量一束光的频率v和波长λ,然后再用c=vλ来计算。1973年以来,采用以下的光速值

c=299,792,458±1.2米/秒。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2019-12-27
原理很简单,拿两只时间提前设置为为一模一样的高精度秒表,约定某刻甲开灯(最好灯为高聚光的,避免具体太远看不见)并按下开始,这时距离甲很远的乙看到灯光时就按下秒表的停止键,把甲乙之间的距离除以秒表开始和结束的时间差就是光速。当然,有两个困难,一是很难找到一个距离很长的直线距离,且要保证甲的光线能传到乙那里,现实中手电筒的换线太弱,几千米就看不见了。第二是当人看到光线后按秒表的反应速度不够快,导致时间实际变长了。根据这两个问题我建议在把距离设置为卫星到地球,光线改为激光,秒表改为电子反应器,这会大大提高准确性。总而言之,原理就是v=s/t,怎么保证s足够长,而且光线又不发散是一个问题,怎么保证一接收到光线马上结束计时也是一个问题。好在现在有了卫星,也有了激光装置。
第2个回答  2020-11-26

光速是怎样测量出来的

第3个回答  2013-12-19
光速定义值:c=299792458m/s
定义:光波或电磁波在真空或介质中的传播速度,没有任何物体或信息运动的速度可以超过光速。
光速的测量方法: 最早光速的准确数值是通过观测木星对其卫星的掩食测量的。还有转动齿轮法、转镜法、克尔盒法、变频闪光法等光速测量方法。
1983年,光速取代了保存在巴黎国际计量局的铂制米原器被选作定义“米”的标准,并且约定光速严格等于299,792,458米/秒,此数值与当时的米的定义和秒的定义一致。后来,随着实验精度的不断提高,光速的数值有所改变,米被定义为1/299,792,458秒内光通过的路程。
根据现代物理学,所有电磁波,包括可见光,在真空中的速度是常数,即是光速。强相互作用、电磁作用、弱相互作用传播的速度都是光速,根据广义相对论,万有引力传播的速度也是光速,且已于2003年得以证实。根据电磁学的定律,发放电磁波的物件的速度不会影响电磁波的速度。结合相对性原则,观察者的参考坐标和发放光波的物件的速度不会影响被测量的光速,但会影响波长而产生红移、蓝移。这是狭义相对论的基础。相对论探讨的是光速而不是光,就算光被稍微减慢,也不会影响狭义相对论。
一、光速测定的天文学方法
1.罗默的卫星蚀法
光速的测量,首先在天文学上获得成功,这是因为宇宙广阔的空间提供了测量光速所需要的足够大的距离.早在1676年丹麦天文学家罗默(1644—1710)首先测量了光速.由于任何周期性的变化过程都可当作时钟,他成功地找到了离观察者非常遥远而相当准确的“时钟”,罗默在观察时所用的是木星每隔一定周期所出现的一次卫星蚀.他在观察时注意到:连续两次卫星蚀相隔的时间,当地球背离木星运动时,要比地球迎向木星运动时要长一些,他用光的传播速度是有限的来解释这个现象.光从木星发出(实际上是木星的卫星发出),当地球离开木星运动时,光必须追上地球,因而从地面上观察木星的两次卫星蚀相隔的时间,要比实际相隔的时间长一些;当地球迎向木星运动时,这个时间就短一些.因为卫星绕木星的周期不大(约为1.75天),所以上述时间差数,在最合适的时间(上图中地球运行到轨道上的A和A’两点时)不致超过15秒(地球的公转轨道速度约为30千米/秒).因此,为了取得可靠的结果,当时的观察曾在整年中连续地进行.罗默通过观察从卫星蚀的时间变化和地球轨道直径求出了光速.由于当时只知道地球轨道半径的近似值,故求出的光速只有214300km/s.这个光速值尽管离光速的准确值相差甚远,但它却是测定光速历史上的第一个记录.后来人们用照相方法测量木星卫星蚀的时间,并在地球轨道半径测量准确度提高后,用罗默法求得的光速为299840±60km/s.
2.布莱德雷的光行差法
1728年,英国天文学家布莱德雷(1693—1762)采用恒星的光行差法,再一次得出光速是一有限的物理量.布莱德雷在地球上观察恒星时,发现恒星的视位置在不断地变化,在一年之内,所有恒星似乎都在天顶上绕着半长轴相等的椭圆运行了一周.他认为这种现象的产生是由于恒星发出的光传到地面时需要一定的时间,而在此时间内,地球已因公转而发生了位置的变化.他由此测得光速为:C=299930千米/秒
这一数值与实际值比较接近.
以上仅是利用天文学的现象和观察数值对光速的测定,而在实验室内限于当时的条件,测定光速尚不能实现.
二、光速测定的大地测量方法
光速的测定包含着对光所通过的距离和所需时间的量度,由于光速很大,所以必须测量一个很长的距离和一个很短的时间,大地测量法就是围绕着如何准确测定距离和时间而设计的各种方法.
1.伽利略测定光速的方法
物理学发展史上,最早提出测量光速的是意大利物理学家伽利略.1607年在他的实验中,让相距甚远的两个观察者,各执一盏能遮闭的灯,如图所示:观察者A打开灯光,经过一定时间后,光到达观察者B,B立即打开自己的灯光,过了某一时间后,此信号回到A,于是A可以记下从他自己开灯的一瞬间,到信号从B返回到A的一瞬间所经过的时间间隔t.若两观察者的距离为S,则光的速度为c=2s/t
因为光速很大,加之观察者还要有一定的反应时间,所以伽利略的尝试没有成功.如果用反射镜来代替B,那么情况有所改善,这样就可以避免观察者所引入的误差.这种测量原理长远地保留在后来的一切测定光速的实验方法之中.甚至在现代测定光速的实验中仍然采用.但在信号接收上和时间测量上,要采用可靠的方法.使用这些方法甚至能在不太长的距离上测定光速,并达到足够高的精确度.
第4个回答  2013-12-19
在介质中
相似回答