① 生化中的NTP和dNTP是什么意思
dNTP是脱氧核苷三磷酸百(含脱氧核糖);NTP是核苷三磷酸(含核糖)。
它们是由三个磷酸分子和一个(脱氧)核苷酸组成的,N的意思是碱基,比如说dATP就是腺嘌呤脱氧核苷三度磷酸。
在DNA复制过程中,dNTP的一个焦磷酸尾巴掉下来了,变成了所谓的dNMP,同时和度上一个碱基连起来了。掉下来的这个焦磷酸分子水解,为DNA聚合酶继续知工作提供了能量。
(1)pythonntp模块扩展阅读:
NTP的性质:
核苷三磷酸是一种分子,含有与5-碳糖结合的氮基,三个磷酸基团与糖结合。
1、它们是DNA和RNA的构建模块,
2、他们是通过DNA复制和转录过程产生的核苷酸链。
3、核苷三磷酸盐也作为细胞反应的能量来源,并参与信号传导途径。
4、核苷三磷酸不能被很好的吸收,因此它们通常在细胞内合成。
② python代码没错但运行不出来
python代码没错但运行不出来是什么原因呢?不知道的小伙伴来看看今天的分享吧!③ NTP时间同步服务器的原理
NTP时间同步服务器以GPS信号作为时间源,同时可选北斗、B码、CDMA、原子钟等时间源。NTP时间同步服务器产品采用全模块化结构设计,不仅实现了板卡全兼容,还提供了丰富的信号接口资源和开放式特殊接口设计平台,具备优异的兼容能力。可提供多路NTP/SNTP信号、PTP信号、脉冲信号(1PPS/M/H,空接点、差分、TTL、24V/110V/220V有源、光)、IRIG-B信号(TTL、422、AC、光)、DCF77信号、时间报文(RS232、RS422/485、光),可以满足不同设备的对时接口要求,广泛应用于电力、金融、通信、交通、广电、安防、石化、冶金、水利、国防、医疗、教育、政府机关、IT等领域。时间同步服务器设备采用表面贴装技术生产,以高速芯片进行控制,具有精度高、稳定性好、功能强、无积累误差、不受地域气候等环境条件限制、性价比高、操作简单、免维护等特点,适合无人值守。
④ 如何在Windows通过NTP协议实现服务器时间同步(python或C实现)
(知道不能发链接。)
1.获取NTP服务器时间。在pypi找ntplib。有范例。
2.设置windows系统时间。有很多方法。最简单的可以直接用date命令。也可以用win32API SetSystemTime,这个精度控制好一些,可以设置到ms。
如果要定期对时,设置计划任务即可。
⑤ NTP时间同步时钟对时问题
NTP对时,一般1个NTP对时接口只能给同一网段里的装置对时。
NTP对时一般有两种应用方式,一是被授时设备(例如电脑)与此NTP对时接口直接相连(若两边的接口均不支持交叉直连自适应,请用交叉网线),此时,将该NTP口与被授时设备设置在一个网段但不同IP,然后在被授时设备的时间同步服务器地址设置为NTP接口的IP地址,然后更新,就可以同步上
而第二种方式就是NTP接口接入交换机,其它被授时设备也全部接到此交换机上,通过这种方式,1个NTP接口最多可以为255台设备授时,当然这255台设备及该NTP接口都必须在同一个网段!
O(∩_∩)O~ 我们公司就是卖时间同步钟的
⑥ 用Python同步ntp时,爆出这样的错误,该怎样解决
你指定的服务器有问题,换一个就可以了。
importdatetime
importntplib
client=ntplib.NTPClient()
res=client.request('ntp.ubuntu.com')
printdatetime.datetime.fromtimestamp(res.tx_time)
⑦ NTP网络时间服务器的简介
2、双核工业级主板;
3、无风扇设计,确保长寿命;
4、4个100/1000以太网口;
5、支持GPS/北斗单模或双模;
6、支持IRIG-B、TOD(RS232/485)E1外部参考源;
7、铷原子振荡器高精度守时;
8、linux Server版操作系统,稳定可靠、高效安全;
9、基于C/S远程管理系统,连续监测服务器性能,记录服务器状态;
10、支持IPV4/IPV6;
11、支持NTP v1.v2.v3&v4 (RFC1119&1305)、SNTP (RFC2030)、 MD5 Authentication (RFC1321)、 Telnet (RFC854)、FTP(RFC959)、HTTP/SSL/HTTPS (RFC2616)、SSH/SCP (Internet Draft)、 SNMP v1,v2、MIB II (RFC1213)、PTP;
12、支持分组bonding负载均衡/冗余模式,保证系统可靠性;
13、支持日志记录功能;14、支持Web界面;15、支持授时客户端管理;16、支持心跳检测和双机热备;17、支持双电源供电;18、支持步进调整功能;
主要技术指标
l 负载均衡设计,充分发挥服务器性能,客户端能智能锁定状态最稳定的时钟服务器并获取标准时间
l
l 人性化的人机对话界面,简单的IP修改,状态查询,时区设置等均可通过面板按键操作完成,不需复杂的系统设置,降低系统维护难度。
l 通过心跳线连接的主、备NTP之间可以相互监测,能够互相之间监测到对方的工作状态。
l 系统扩容性强,本公司生产的时钟服务器系统带有专门的接口扩展坞,可以根据需求扩展E1,10MHZ、1PPS、RIRG-B、DGFF77等信号。
l 工厂模式设置,获得厂家授权后可以使设备恢复出厂设置
l 客户终端同步精度:1-10ms(典型值,与网络传输性能有关)
l NTP请求响应:不小于8000次/秒
l 北斗/GPS双模时钟参考模式,一级网络时间服务器
l Slave模式:同步于其他NTP服务器
l 支持广播模式
l 可以利用broadcast/multicast、client/server、symmetric三种方式与其他服务器对时
l 可同步数万台客户端、服务器、工作站等设备时钟
l 两台设备网卡可设为同一IP,互为冗余备份
l 支持Bonding功能,同一设备2个网卡可设为同一IP,单机即可实现网卡故障备份输出,接口可选
l 客户端支持WINDOWS9X、WINDOWS NT/2000/XP/2003、LINUX、UNIX、SUN SOLARIS、IBMAIX等操作系统和CISCO的路由器及交换机
l 多种配置方法,可使用Console模式、SSH、Telnet和FTP进行远程管理、配置和升级
l 支持双电源冗余备份,适合极端条件使用
l 系统设备工作时间:24小时连续不间断工作
l 获取前端设备时间模块 获取从数据库中的设备列表,根据列表进行时间获取并保存临时表
l 获取非标准时间列表模块 根据临时表中的数据,将前端主机中系统时间不标准的设备进行筛选出来
l 提供NTP服务器和客户端的授时监视软件,可以监视NTP服务器和授时客户端的同步和时间偏差情况。可通过snmp、syslog等协议告警。NTP服务器信息监视,包括运行时间,同步状态,服务器的网络参数等信息。
技术参数及性能特点:
NTP网络时间服务器提供的高精度的网络同步时钟直接来自于GPS系统中各个卫星的原子钟(也可以根据用户的要求选择其他卫星授时系统作为时间的基准源),设备由高精度高灵敏度授时型GPS接收机、高可靠性工业级服务器主板、高亮度VFD液晶显示屏和高品质1U工业机箱等部件组成,采用高效的嵌入式Linux操作系统,配合泰福特电子自主知识产权的卫星授时、网络同步、频率测控等技术,该产品系统整体功耗小,采用无风扇设计,运行可靠稳定,可以为计算机网络、计算机应用系统、流程控制管理系统、电子商务系统、网上B2B系统以及数据库的保存及维护等系统需要提供精密的标准时间信号和时间戳服务,已经被成功应用于政府金融、移动通信、公安、石油、电力、交通、工业以及国防等领域。
⑧ Ceph高可用部署和主要组件介绍
本教程用官网最近的cephadm来搭建ceph集群。
第一周作业:1.ceph的组件和功能2.ceph的数据读写流程3.使用ceph-deploy安装一个最少三个节点的ceph集群 推荐3个或以上的磁盘作为专用osd 4.测试ceph的rbd使用
1·Ceph组件和功能
组件
Ceph OSDs : ( Ceph OSD )object storage daemon的功能是存储数据,处理数据的复制、恢复、回填、再均衡,并通过检查其他OSD 守护进程的心跳来向 Ceph Monitors 提供一些监控信息。当 Ceph 存储集群设定为有2个副本时,至少需要2个 OSD 守护进程,集群才能达到 active+clean 状态( Ceph 默认有3个副本,但你可以调整副本数)。
Monitors : 维护着展示集群状态的各种图表,包括监视器图、 OSD 图、归置组( PG )图、和 CRUSH 图。 Ceph 保存着发生在Monitors 、 OSD 和 PG上的每一次状态变更的历史信息(称为 epoch )。
MDSs : Ceph 元数据服务器为 Ceph 文件系统存储元数据(也就是说,Ceph 块设备和 Ceph 对象存储不使用MDS )。元数据服务器使得 POSIX 文件系统的用户们,可以在不对 Ceph 存储集群造成负担的前提下,执行诸如 ls、find 等基本命令。
CephMgr :在一个主机上的守护进程,负责运行指标,运行状态,性能负载,
其他术语:
RADOS:多个主机组成的存储集群,即可靠,自动化,分布式的对象存储系统。
File: 就是普通文件,ObjectRADOS看到的对象,Object与File的区别是, Object的最大尺寸由RADOS限定(通常为2MB或4MB) ,以便实现底层存储的组织管理。因此,当上层应用向RADOS存入尺寸很大的File时,需要将File切分成统一大小的一系列Objet (最后一个的大小可以不同)进行存储。
librados:RADOS集群的API,支持大部分主流语言。
Pool:存储池,大小取决于底层的存储空间。
PG:placeholder group,一个pool(存储池)内可以有多个PG,pool个pg都是抽象的逻辑概念,可以通过公示计算。PG的用途是对Object的存储进行组织和位置映射的。具体而言,一个PG负责组织若干个Object,但一个Obiect只能被映射到一个PG中,即PG和Object之间是“一对多”的映射关系。同时,一个PG会被映射到n个OSD上,而每个OSD上都会承载大量的PG,即PG和OSD之间是“多对多”的映射关系。在实践当中,n至少为2,如果用于生产环境,则至少为3。一个OSD上的PG可达到数百个。事实上, PG数量的设置关系到数据分布的均匀性问题。
OSD daemon:默认每2秒发送状态数据给monitor,(同时监控组内其他OSD的状态)(up 可以提供IO,down不能提供,in有数据,out没有数据)
PG和OSD之间的关系通过CRUSH算法得出的。常规这三个 OSD daemon 可以在一台机器上,也可以在不同机器上;那么根据 CRUSH 算法会尽可能的保证一个平衡,就是不在同一个机器上;毕竟Ceph中的数据是一个为平衡的状态,一切都是通过CRUSH 算法来实现的数据平衡,而 PG 本身是个有序列表,位于第一的位置是 master;这个列表的产生是由 monitor 来产生的;
寻址流程
File->Object映射 这次映射的目的是,将用户要操作的File映射为RADOS能够处理的Object,其十分简单,本质上就是按照Object的最大尺寸(默认4M)对File进行切分,相当于磁盘阵列中的条带化过程。这种切分的好处有两个:一是让大小不限的File变成具有一致的最大尺寸、可以被RADOS高效管理的Object;二是让对单一File实施的串行处理变为对多个Object实施的并行化处理。每一个切分后产生的Object将获得唯一的oid,即Object ID,其产生方式也是线性映射,极其简单。 Object →PG映射 在File被映射为1个或多个Object之后,就需要将每个Object独立地映射到1个PG中去。这个映射过程也很简单,如图所示,其计算公式如下:Hash(oid) & mask -> pgid由此可见,其计算由两步组成。首先,使用Ceph系统指定的一个静态哈希算法计算oid的哈希值,将oid映射为一个近似均匀分布的伪随机值。然后,将这个伪随机值和mask按位相与,得到最终的PG序号(pgid) 。根据RADOS的设计,给定PG的总数为m(m应该为2的整数幂),则mask的值为m-1。因此,哈希值计算和按位与操作的整体结果事实上是从所有m个PG中近似均匀地随机选择1个。基于这一机制,当有大量Object和大量PG时, RADOS能够保证Object和PG之间的近似均匀映射。又因为Object是由File切分而来的,大部分Object的尺寸相同,因此,这一映射最终保证了各个PG中存储的Object的总数据量近似均匀。这里反复强调了“大量” ,意思是只有当Object和PG的数量较多时,这种伪随机关系的近似均匀性才能成立, Ceph的数据存储均匀性才有保证。为保证“大量”的成立,一方面, Object的最大尺寸应该被合理配置,以使得同样数量的File能够被切分成更多的Object;另一方面, Ceph也推荐PG总数应该为OSD总数的数百倍,以保证有足够数量的PG可供映射。 PG→ OSD映射 第3次映射就是将作为Object的逻辑组织单元的PG映射到数据的实际存储单元OSD上。RADOS采用一个名为CRUSH的算法,将pgid代入其中,然后得到一组共n个OSD。这n个OSD共同负责存储和维护一个PG中的所有Objecto前面提到过, n的数值可以根据实际应用中对于可靠性的需求而配置,在生产环境下通常为3。具体到每个OSD,则由其上运行的OSD Daemon负责执行映射到本地的Object在本地文件系统中的存储、访问、元数据维护等操作。和“Object →PG"映射中采用的哈希算法不同, CRUSH算法的结果不是绝对不变的,而会受到其他因素的影响。其影响因素主要有两个。一是当前系统状态,也就是在前面有所提及的集群运行图。当系统中的OSD状态、数量发生变化时,集群运行图也可能发生变化,而这种变化将会影响到PG与OSD之间的映射关系。二是存储策略配置。这里的策略主要与安全相关。利用策略配置,系统管理员可以指定承载同一个PG的3个OSD分别位于数据中心的不同服务器或机架上,从而进一步改善存储的可靠性。因此,只有在系统状态和存储策略都不发生变化的时候, PG和OSD之间的映射关系才是固定不变的。在实际使用中,策略一经配置通常不会改变。而系统状态的改变或是因为设备损坏,或是因为存储集群规模扩大。好在Ceph本身提供了对这种变化的自动化支持,因而,即便PG与OSD之间的映射关系发生了变化,也并不会对应用产生影响。事实上, Ceph正是利用了CRUSH算法的动态特性,可以将一个PG根据需要动态迁移到不同的OSD组合上,从而自动化地实现高可靠性、数据分布再平衡等特性。之所以在此次映射中使用CRUSH算法,而不使用其他哈希算法,一方面原因是CRUSH算法具有上述可配置特性,可以根据管理员的配置参数决定OSD的物理位置映射策略;另一方面原因是CRUSH算法具有特殊的“稳定性" ,也即,当系统中加入新的OSD,导致系统规模增大时,大部分PG与OSD之间的映射关系不会发生改变,只有少部分PG的映射关系会发生变化并引发数据迁移。这种可配置性和稳定性都不是普通哈希算法所能提供的。因此, CRUSH算法的设计也是Ceph的核心内容之一。 至此为止, Ceph通过3次映射,完成了从File到Object. Object到PG,PG再到OSD的整个映射过程。从整个过程可以看到,这里没有任何的全局性查表操作需求。至于唯一的全局性数据结构:集群运行图。它的维护和操作都是轻量级的,不会对系统的可扩展性、性能等因素造成影响 。
存储过程总结:
1.计算文件到对象的映射
2.通过哈希算法计算计算出文件对应的pool的PG
3.通过CRUSH把对象映射到PG中的OSD
4.PG种的OSD将对象写入到磁盘
5.主OSD将数据同步到备份OSD,待备份OSD返回确认
6.主OSD的到备份OSD写完操作以后给客户的返回写入成功
2. ceph的读写流程
当某个客户端需要向Ceph集群写入一个File时,首先需要在本地完成寻址流程,将File变为一个Object,然后找出存储该Object的一组共3个OSD,这3个OSD具有各自不同的序号,序号最靠前的那个OSD就是这一组中的Primary OSD,而后两个则依次Secondary OSD和Tertiary OSD。找出3个OSD后,客户端将直接和Primary OSD进行通信,发起写入操作(步骤1)。 Primary OSD收到请求后,分别向Secondary OSD和Tertiary OSD发起写人操作(步骤2和步骤3)。当Secondary OSD和Tertiary OSD各自完成写入操作后,将分别向Primary OSD发送确认信息(步骤4和步骤5)。当Primary OSD确认其他两个OSD的写入完成后,则自己也完成数据写入,并向客户端确认Object写入操作完成(步骤6)。之所以采用这样的写入流程,本质上是为了保证写入过程中的可靠性,尽可能避免出现数据丢失的情况。同时,由于客户端只需要向Primary OSD发送数据,因此在互联网使用场景下的外网带宽和整体访问延迟又得到了一定程度的优化。当然,这种可靠性机制必然导致较长的延迟,特别是,如果等到所有的OSD都将数据写入磁盘后再向客户端发送确认信号,则整体延迟可能难以忍受。因此, Ceph可以分两次向客户端进行确认。当各个OSD都将数据写入内存缓冲区后,就先向客户端发送一次确认,此时客户端即可以向下执行。待各个OSD都将数据写入磁盘后,会向客户端发送一个最终确认信号,此时客户端可以根据需要删除本地数据。分析上述流程可以看出,在正常情况下,客户端可以独立完成OSD寻址操作,而不必依赖于其他系统模块。因此,大量的客户端可以同时和大量的OSD进行并行操作。同时,如果一个File被切分成多个Object,这多个Object也可被并行发送至多个OSD上。从OSD的角度来看,由于同一个OSD在不同的PG中的角色不同,因此,其工作压力也可以被尽可能均匀地分担,从而避免单个OSD变成性能瓶颈。
问:为什么要设计三层映射而不是一层?
答:如果将object直接映射到一组OSD上,如果这种算法是固定的哈希算法,则意味着一个object被固定映射在一组OSD上,当其中一个OSD损坏时,object也无法部署到新的OSD上(因为映射函数不允许)。
如果设计一个动态算法(例如CRUSH算法)来完成这一映射,结果将是各个OSD所处理的本地元数据暴增,由此带来的计算复杂度和维护工作量也是难以承受的。
综上所诉,引入PG的好处至少有二:一方面试下呢object和OSD之间的动态映射,从而为Ceph的可靠性、自动化等特性的实现留下了空间;另一方面也有效简化了数据的存储组织,大大降低了系统的维护管理开销。
1.准备工作
时间同步`
安装ntpdate(时间同步工具)
# apt install ntpate
0* * * * ntpdate time1.aliyun.com
echo'0 * * * * ntpdate time1.aliyun.com'>> /var/spool/cron/crontabs/root
或者 可以通过
ansible all-mshell-a"echo '0 * * * * ntpdate time1.aliyun.com' >> /var/spool/cron/crontabs/root"
关闭 selinux 和防火墙
root@node1:~# sudo ufw status ##查看状态
Status: inactive
root@node1:~# sudo ufw disable
Firewall stopped and disabled on system startup##禁用
root@node1:~#
配置域名解析或通过 DNS 解析
root@node1:~# cat /etc/hosts
127.0.0.1 localhost
root@node1:~# hostnamectl set-hostname 对应的名称
## 以下是新增的 可以按照自己的习惯配置
192.168.106.101 node1
192.168.106.102 node2
192.168.106.103 node3
安装python
root@node1:~# apt install python ##python2
源修改成国内源 -- 具体步骤自行网络
https://mirrors.aliyun.com/ceph/#阿里云镜像仓库
http://mirrors.163.com/ceph/#网易镜像仓库
https://mirrors.tuna.tsinghua.e.cn/ceph/#清华大学镜像源
ceph用到的端口 (防火墙和安全中记得放开)
Ceph Monitor:启用 Ceph MON 服务或端口 6789 (TCP)。
Ceph OSD 或元数据服务器:启用 Ceph OSD/MDS 服务或端口 6800-7300 (TCP)。
iSCSI 网关:打开端口 3260 (TCP)。
对象网关:打开对象网关通讯所用的端口。此端口在 /etc/ceph.conf 内以 rgw frontends = 开头的行中设置。HTTP 的默认端口为 80,HTTPS (TCP) 的默认端口为 443。
NFS Ganesha:默认情况下,NFS Ganesha 使用端口 2049(NFS 服务、TCP)和 875 (rquota 支持、TCP)。
SSH:打开端口 22 (TCP)。
NTP:打开端口 123 (UDP)。
2.搭建ceph集群
安装cephadm
root@node1:~# wget https://github.com/ceph/ceph/raw/pacific/src/cephadm/cephadm ## node1 管理节点上执行
root@node1:~# chmod +x cephadm
root@node1:~# ./cephadm add-repo --release pacific ##设置要安装的版本
root@node1:~# which cephadm ##确认是否安装成功
初始化集群
root@node1:~# cephadm bootstrap --mon-ip 192.168.106.101 ##ceph集群第一个节点的ip
初始化完了以后就可以访问dashboard了 地址 : https://node1:8443/#/dashboard 访问用户密码上一步生成
添加其他节点和其他组件
root@node1:~# ssh-keygen
## 配置免密通信
root@node1:~# ssh--id -f -i /etc/ceph/ceph.pub root@node2
root@node1:~# ssh--id -f -i /etc/ceph/ceph.pub root@node3
## 添加node
root@node1:~# ceph orch host add node2 192.168.106.102
root@node1:~# ceph orch host add node3 192.168.106.103
## 添加osd
root@node1:~# ceph orch daemon add osd node1:/dev/sdb
root@node1:~# ceph orch daemon add osd node1:/dev/sdb
root@node1:~# ceph orch daemon add osd node3:/dev/sdb
测试
root@node1:~# ceph fs volume create testfs ##添加测试fs
root@node1:~# ceph orch apply mds testfs --placement="3" ##设置备份数
root@node1:~# ceph orch daemon add mds testfs node1
root@node1:~# ceph mds stat
## 在集群之外的或者任意机器上操作
root@node4:~# apt install ceph-common -y
node1初始化集群的节点操作
root@node1:~# scp /etc/ceph/ceph.client.admin.keyring user@node4:/etc/ceph
## 集群之外的clinet或者测试节点执行
root@node4:~# mount -t ceph node1:/ /mnt/testfs -o name=admin,secret=AQAoJjBh7OPVNhAAQZyzLhDfgSj+KPmeU5RVlA==,fs=testfs
root@node4:~# mount -t ceph node2:/ /mnt/cephfs -o name=admin,secret=AQAoJjBh7OPVNhAAQZyzLhDfgSj+KPmeU5RVlA==,fs=testfs
root@node4:~# df -h
Filesystem Size Used Avail Use% Mounted on
udev1.4G01.4G0% /dev
tmpfs 293M1.2M 292M1% /run
....
192.168.106.101:/ 18G 1000M 17G6% /mnt/testfs
192.168.106.102:/ 18G 1000M 17G6% /mnt/cephfs
root@node4:~# cd /mnt/cephfs
root@node4:/mnt/cephfs# dd if=/dev/zero of=test bs=1M count=100 ##生成文件
这时候文件是直接写在ceph集群上看了, 可以通过dashboard观察👀。
⑨ ntp时间同步服务器
NTP时间同步服务器是针对计算机、自动化装置等进行校时而研发的高科技产品。NTP时间同步服务器从GPS卫星上获取标准的时间信号,将这些信号通过各种接口传输给自动化系统中需要时间信息的设备。
NTP服务工作模式为三种,即客户/服务器模式、广播模式和对称模块。在客户端/服务器模式下,客户端以周期性地发送NTP数据包,根据标记直观查看工作状态、事件结果等并及时反馈。
NTP时钟同步服务器利用卫星通信功能,可以构建中心主站系统对各厂站时间同步系统的集中监测和远程维护,提高设备的运行可靠性。NTP时钟同步服务器采用SMT表面贴装技术生产,以高速芯片进行控制,无硬盘和风扇设计,精度高、稳定性好、功能强、无积累误差、不受地域气候等环境条件限制、性价比高、操作简单、全自动智能化运行,免操作维护,适合无人值守。
⑩ linux配置ntp时钟源
(一)确认ntp的安装
1)确认是否已安装ntp
【命令】rpm –qa | grep ntp
若只有ntpdate而未见ntp,则需删除原有ntpdate。如:
ntpdate-4.2.6p5-22.el7_0.x86_64
fontpackages-filesystem-1.44-8.el7.noarch
python-ntplib-0.3.2-1.el7.noarch
2)删除已安装ntp
【命令】yum –y remove ntpdate-4.2.6p5-22.el7.x86_64
3)重新安装ntp
【命令】yum –y install ntp
(二)配置ntp服务
1)修改所有节点的/etc/ntp.conf
【命令】vi /etc/ntp.conf
【内容】
restrict 192.168.6.3 nomodify notrap nopeer noquery //当前节点IP地址
restrict 192.168.6.2 mask 255.255.255.0 nomodify notrap //集群所在网段的网关(Gateway),子网掩码(Genmask)
2)选择一个主节点,修改其/etc/ntp.conf
【命令】vi /etc/ntp.conf
【内容】在server部分添加一下部分,并注释掉server 0 ~ n
server 127.127.1.0
Fudge 127.127.1.0 stratum 10
3)主节点以外,继续修改/etc/ntp.conf
【命令】vi /etc/ntp.conf
【内容】在server部分添加如下语句,将server指向主节点。
server 192.168.6.3
Fudge 192.168.6.3 stratum 10
===修改前===
image
===修改后===
节点1(192.168.6.3):
image
节点2(192.168.6.4):
image
节点3(192.168.6.5):
image
(三)启动ntp服务、查看状态
1)启动ntp服务
【命令】service ntpd start
2)查看ntp服务器有无和上层ntp连通
【命令】ntpstat
image
查看ntp状态时,可能会出现如下所示情况
① unsynchronised time server re-starting polling server every 8 s
image
② unsynchronised polling server every 8 s
image
这种情况属于正常,ntp服务器配置完毕后,需要等待5-10分钟才能与/etc/ntp.conf中配置的标准时间进行同步。
等一段时间之后,再次使用ntpstat命令查看状态,就会变成如下正常结果:
image
3)查看ntp服务器与上层ntp的状态
【命令】ntpq -p
image
remote:本机和上层ntp的ip或主机名,“+”表示优先,“*”表示次优先
refid:参考上一层ntp主机地址
st:stratum阶层
when:多少秒前曾经同步过时间
poll:下次更新在多少秒后
reach:已经向上层ntp服务器要求更新的次数
delay:网络延迟
offset:时间补偿
jitter:系统时间与bios时间差
4)查看ntpd进程的状态
【命令】watch "ntpq -p"
【终止】按 Ctrl+C 停止查看进程。
image
第一列中的字符指示源的质量。星号 ( * ) 表示该源是当前引用。
remote:列出源的 IP 地址或主机名。
when:指出从轮询源开始已过去的时间(秒)。
poll:指出轮询间隔时间。该值会根据本地时钟的精度相应增加。
reach:是一个八进制数字,指出源的可存取性。值 377 表示源已应答了前八个连续轮询。
offset:是源时钟与本地时钟的时间差(毫秒)。
(四)设置开机启动
【命令】chkconfig ntpd on
(五)从其他博客的一些参考摘录
===/etc/ntp.conf 配置内容===
[
复制代码
](javascript:void(0); "复制代码")
<pre style="margin: 0px; padding: 0px; white-space: pre-wrap; word-wrap: break-word; font-family: "Courier New" !important; font-size: 12px !important;"># 1. 先处理权限方面的问题,包括放行上层服务器以及开放局域网用户来源:
restrict default kod nomodify notrap nopeer noquery <==拒绝 IPv4 的用户
restrict -6 default kod nomodify notrap nopeer noquery <==拒绝 IPv6 的用户
restrict 220.130.158.71 <==放行 tock.stdtime.gov.tw 进入本 NTP 的服务器
restrict 59.124.196.83 <==放行 tick.stdtime.gov.tw 进入本 NTP 的服务器
restrict 59.124.196.84 <==放行 time.stdtime.gov.tw 进入本 NTP 的服务器
restrict 127.0.0.1 <==底下两个是默认值,放行本机来源
restrict -6 ::1 restrict 192.168.100.0 mask 255.255.255.0 nomodify <==放行局域网用户来源,或者列出单独IP
2. 设定主机来源,请先将原本的 [0|1|2].centos.pool.ntp.org 的设定批注掉:
server 220.130.158.71 prefer <==以这部主机为最优先的server
server 59.124.196.83 server 59.124.196.84 # 3.默认的一个内部时钟数据,用在没有外部 NTP 服务器时,使用它为局域网用户提供服务:
server 127.127.1.0 # local clock
fudge 127.127.1.0 stratum 10 # 4.预设时间差异分析档案与暂不用到的 keys 等,不需要更动它:
driftfile /var/lib/ntp/drift
keys /etc/ntp/keys </pre>
[
复制代码
](javascript:void(0); "复制代码")
===restrict选项格式===
restrict [ 客户端IP ] mask [ IP掩码 ] [参数]
“客户端IP” 和 “IP掩码” 指定了对网络中哪些范围的计算机进行控制,如果使用default关键字,则表示对所有的计算机进行控制,参数指定了具体的限制内容,常见的参数如下:
◆ ignore:拒绝连接到NTP服务器
◆ nomodiy: 客户端不能更改服务端的时间参数,但是客户端可以通过服务端进行网络校时。
◆ noquery: 不提供客户端的时间查询
◆ notrap: 不提供trap远程登录功能,trap服务是一种远程时间日志服务。
◆ notrust: 客户端除非通过认证,否则该客户端来源将被视为不信任子网 。
◆ nopeer: 提供时间服务,但不作为对等体。
◆ kod: 向不安全的访问者发送Kiss-Of-Death报文。
===server选项格式===
server host [ key n ] [ version n ] [ prefer ] [ mode n ] [ minpoll n ] [ maxpoll n ] [ iburst ]
其中host是上层NTP服务器的IP地址或域名,随后所跟的参数解释如下所示:
◆ key: 表示所有发往服务器的报文包含有秘钥加密的认证信息,n是32位的整数,表示秘钥号。
◆ version: 表示发往上层服务器的报文使用的版本号,n默认是3,可以是1或者2。
◆ prefer: 如果有多个server选项,具有该参数的服务器有限使用。
◆ mode: 指定数据报文mode字段的值。
◆ minpoll: 指定与查询该服务器的最小时间间隔为2的n次方秒,n默认为6,范围为4-14。
◆ maxpoll: 指定与查询该服务器的最大时间间隔为2的n次方秒,n默认为10,范围为4-14。
◆ iburst: 当初始同步请求时,采用突发方式接连发送8个报文,时间间隔为2秒。
===查看网关方法===
【命令1】route -n
【命令2】ip route show
【命令3】netstat -r
===层次(stratum)===
stratum根据上层server的层次而设定(+1)。
对于提供network time service provider的主机来说,stratum的设定要尽可能准确。
而作为局域网的time service provider,通常将stratum设置为10
image
0层的服务器采用的是原子钟、GPS钟等物理设备,stratum 1与stratum 0 是直接相连的,
往后的stratum与上一层stratum通过网络相连,同一层的server也可以交互。
ntpd对下层client来说是service server,对于上层server来说它是client。
ntpd根据配置文件的参数决定是要为其他服务器提供时钟服务或者是从其他服务器同步时钟。所有的配置都在/etc/ntp.conf文件中。
[图片上传失败...(image-f2dcb9-1561634142658)]
===注意防火墙屏蔽ntp端口===
ntp服务器默认端口是123,如果防火墙是开启状态,在一些操作可能会出现错误,所以要记住关闭防火墙。ntp采用的时udp协议
sudo firewall-cmd --zone=public --add-port=123/udp --permanent
===同步硬件时钟===
ntp服务,默认只会同步系统时间。
如果想要让ntp同时同步硬件时间,可以设置/etc/sysconfig/ntpd文件,
在/etc/sysconfig/ntpd文件中,添加【SYNC_HWCLOCK=yes】这样,就可以让硬件时间与系统时间一起同步。
允许BIOS与系统时间同步,也可以通过hwclock -w 命令。
===ntpd、ntpdate的区别===
下面是网上关于ntpd与ntpdate区别的相关资料。如下所示所示:
使用之前得弄清楚一个问题,ntpd与ntpdate在更新时间时有什么区别。
ntpd不仅仅是时间同步服务器,它还可以做客户端与标准时间服务器进行同步时间,而且是平滑同步,
并非ntpdate立即同步,在生产环境中慎用ntpdate,也正如此两者不可同时运行。
时钟的跃变,对于某些程序会导致很严重的问题。
许多应用程序依赖连续的时钟——毕竟,这是一项常见的假定,即,取得的时间是线性的,
一些操作,例如数据库事务,通常会地依赖这样的事实:时间不会往回跳跃。
不幸的是,ntpdate调整时间的方式就是我们所说的”跃变“:在获得一个时间之后,ntpdate使用settimeofday(2)设置系统时间,
这有几个非常明显的问题:
【一】这样做不安全。
ntpdate的设置依赖于ntp服务器的安全性,攻击者可以利用一些软件设计上的缺陷,拿下ntp服务器并令与其同步的服务器执行某些消耗性的任务。
由于ntpdate采用的方式是跳变,跟随它的服务器无法知道是否发生了异常(时间不一样的时候,唯一的办法是以服务器为准)。
【二】这样做不精确。
一旦ntp服务器宕机,跟随它的服务器也就会无法同步时间。
与此不同,ntpd不仅能够校准计算机的时间,而且能够校准计算机的时钟。
【三】这样做不够优雅。
由于是跳变,而不是使时间变快或变慢,依赖时序的程序会出错
(例如,如果ntpdate发现你的时间快了,则可能会经历两个相同的时刻,对某些应用而言,这是致命的)。
因而,唯一一个可以令时间发生跳变的点,是计算机刚刚启动,但还没有启动很多服务的那个时候。
其余的时候,理想的做法是使用ntpd来校准时钟,而不是调整计算机时钟上的时间。
NTPD在和时间服务器的同步过程中,会把BIOS计时器的振荡频率偏差——或者说Local Clock的自然漂移(drift)——记录下来。
这样即使网络有问题,本机仍然能维持一个相当精确的走时。
===国内常用NTP服务器地址及IP===
210.72.145.44 (国家授时中心服务器IP地址)
133.100.11.8 日本 福冈大学
time-a.nist.gov 129.6.15.28 NIST, Gaithersburg, Maryland
time-b.nist.gov 129.6.15.29 NIST, Gaithersburg, Maryland
time-a.timefreq.bldrdoc.gov 132.163.4.101 NIST, Boulder, Colorado
time-b.timefreq.bldrdoc.gov 132.163.4.102 NIST, Boulder, Colorado
time-c.timefreq.bldrdoc.gov 132.163.4.103 NIST, Boulder, Colorado
utcnist.colorado.e 128.138.140.44 University of Colorado, Boulder
time.nist.gov 192.43.244.18 NCAR, Boulder, Colorado
time-nw.nist.gov 131.107.1.10 Microsoft, Redmond, Washington
nist1.symmetricom.com 69.25.96.13 Symmetricom, San Jose, California
nist1-dc.glassey.com 216.200.93.8 Abovenet, Virginia
nist1-ny.glassey.com 208.184.49.9 Abovenet, New York City
nist1-sj.glassey.com 207.126.98.204 Abovenet, San Jose, California
nist1.aol-ca.truetime.com 207.200.81.113 TrueTime, AOL facility, Sunnyvale, California
nist1.aol-va.truetime.com 64.236.96.53 TrueTime, AOL facility, Virginia
————————————————————————————————————
ntp.sjtu.e.cn 202.120.2.101 (上海交通大学网络中心NTP服务器地址)
s1a.time.e.cn 北京邮电大学
s1b.time.e.cn 清华大学
s1c.time.e.cn 北京大学
s1d.time.e.cn 东南大学
s1e.time.e.cn 清华大学
s2a.time.e.cn 清华大学
s2b.time.e.cn 清华大学
s2c.time.e.cn 北京邮电大学
s2d.time.e.cn 西南地区网络中心
s2e.time.e.cn 西北地区网络中心
s2f.time.e.cn 东北地区网络中心
s2g.time.e.cn 华东南地区网络中心
s2h.time.e.cn 四川大学网络管理中心
s2j.time.e.cn 大连理工大学网络中心
s2k.time.e.cn CERNET桂林主节点
s2m.time.e.cn 北京大学</pre>