導航:首頁 > 編程語言 > pythonntp模塊

pythonntp模塊

發布時間:2023-01-31 09:42:38

① 生化中的NTP和dNTP是什麼意思

dNTP是脫氧核苷三磷酸百(含脫氧核糖);NTP是核苷三磷酸(含核糖)。

它們是由三個磷酸分子和一個(脫氧)核苷酸組成的,N的意思是鹼基,比如說dATP就是腺嘌呤脫氧核苷三度磷酸。

在DNA復制過程中,dNTP的一個焦磷酸尾巴掉下來了,變成了所謂的dNMP,同時和度上一個鹼基連起來了。掉下來的這個焦磷酸分子水解,為DNA聚合酶繼續知工作提供了能量。

(1)pythonntp模塊擴展閱讀:

NTP的性質:

核苷三磷酸是一種分子,含有與5-碳糖結合的氮基,三個磷酸基團與糖結合。

1、它們是DNA和RNA的構建模塊,

2、他們是通過DNA復制和轉錄過程產生的核苷酸鏈。

3、核苷三磷酸鹽也作為細胞反應的能量來源,並參與信號傳導途徑。

4、核苷三磷酸不能被很好的吸收,因此它們通常在細胞內合成。

② python代碼沒錯但運行不出來

python代碼沒錯但運行不出來是什麼原因呢?不知道的小夥伴來看看今天的分享吧!
1、python代碼沒錯但運行不出來的原因:
某項目中使用python腳本方式將日誌文件中的數據持續的轉換格式輸出到另一文件中以供其他日誌分析應用使用。但是當後台運行採取重定向方式輸出到某一文件時,發現並沒有內容輸出,命令如下:
pythonxxx.py>xxx.log&
測試發現,當前台直接輸出到終端時正常,使用後台運行重定向的方式輸出到文件中時無法輸出。

2、解決辦法:
發現是在程序運行時,輸出有緩存,只有當程序運行結束或者緩沖區滿後才會輸出。因為程序是一致在運行的所以不可能等待程序結束在輸出。並且要求是有實時性的所以等緩沖區滿輸出的方式也不可取。
所以採用在python運行時加上-u參數,如:
python-uxxx.py>xxx.log&
-u參數的意義是不使用緩沖的方式輸入輸出
詳細如下:
Forcestdin,.Onsystemswhereitmatters,alsoputstdin,stdoutandstderrinbinarymode.(),readlines()andfile-objectiterators("forlineinsys.stdin」).Toworkaroundthis,youwillwanttouse"sys.stdin.readline()」insidea"while1:」loop.
補充知識:python中運行代碼時沒有報錯但是也沒有輸出而且還有exitcode0的結束標志
如下所示:
f=open("passwd.txt",'r')
print(f.read(4))
f.close()
這是想要執行的代碼
passwd.txt中的內容
ntp:x:38:38::/etc/ntp:/sbin/nologin
apache:x:48:48:Apache:/var/www:/sbin/nologin
saslauth:x:498:76:Saslauthser:/var/empty/saslauth:/sbin/nologin
postfix:x:89:89::/var/spool/postfix:/sbin/nologin
gdm:x:42:42::/var/lib/gdm:/sbin/nologin
pulse:x:497:496:PulseAudioSystemDaemon:/var/run/pulse:/sbin/nologin
但是輸出的結果是
Processfinishedwithexitcode0
後來排查發現原來是解釋器的問題
我之前使用的解釋器是pycharm提供的虛擬解釋器
#####如何查看解釋器
點file?C>newprojects

如果選擇的是2就是使用了pycharm提供的虛擬解釋器,又因為passwd.txt文件不是在虛擬環境中的所以就沒有輸出。
點擊3然後選擇你已經下載好的解釋器即可。
以上就是今天的分享了,希望可以幫助到大家。

③ NTP時間同步伺服器的原理

NTP時間同步伺服器以GPS信號作為時間源,同時可選北斗、B碼、CDMA、原子鍾等時間源。NTP時間同步伺服器產品採用全模塊化結構設計,不僅實現了板卡全兼容,還提供了豐富的信號介面資源和開放式特殊介面設計平台,具備優異的兼容能力。可提供多路NTP/SNTP信號、PTP信號、脈沖信號(1PPS/M/H,空接點、差分、TTL、24V/110V/220V有源、光)、IRIG-B信號(TTL、422、AC、光)、DCF77信號、時間報文(RS232、RS422/485、光),可以滿足不同設備的對時介面要求,廣泛應用於電力、金融、通信、交通、廣電、安防、石化、冶金、水利、國防、醫療、教育、政府機關、IT等領域。時間同步伺服器設備採用表面貼裝技術生產,以高速晶元進行控制,具有精度高、穩定性好、功能強、無積累誤差、不受地域氣候等環境條件限制、性價比高、操作簡單、免維護等特點,適合無人值守。

④ 如何在Windows通過NTP協議實現伺服器時間同步(python或C實現)

(知道不能發鏈接。)
1.獲取NTP伺服器時間。在pypi找ntplib。有範例。
2.設置windows系統時間。有很多方法。最簡單的可以直接用date命令。也可以用win32API SetSystemTime,這個精度控制好一些,可以設置到ms。

如果要定期對時,設置計劃任務即可。

⑤ NTP時間同步時鍾對時問題

NTP對時,一般1個NTP對時介面只能給同一網段里的裝置對時。
NTP對時一般有兩種應用方式,一是被授時設備(例如電腦)與此NTP對時介面直接相連(若兩邊的介面均不支持交叉直連自適應,請用交叉網線),此時,將該NTP口與被授時設備設置在一個網段但不同IP,然後在被授時設備的時間同步伺服器地址設置為NTP介面的IP地址,然後更新,就可以同步上
而第二種方式就是NTP介面接入交換機,其它被授時設備也全部接到此交換機上,通過這種方式,1個NTP介面最多可以為255台設備授時,當然這255台設備及該NTP介面都必須在同一個網段!
O(∩_∩)O~ 我們公司就是賣時間同步鍾的

⑥ 用Python同步ntp時,爆出這樣的錯誤,該怎樣解決

你指定的伺服器有問題,換一個就可以了。

importdatetime
importntplib

client=ntplib.NTPClient()
res=client.request('ntp.ubuntu.com')
printdatetime.datetime.fromtimestamp(res.tx_time)

⑦ NTP網路時間伺服器的簡介

2、雙核工業級主板;
3、無風扇設計,確保長壽命;
4、4個100/1000乙太網口;
5、支持GPS/北斗單模或雙模;
6、支持IRIG-B、TOD(RS232/485)E1外部參考源;
7、銣原子振盪器高精度守時;
8、linux Server版操作系統,穩定可靠、高效安全;
9、基於C/S遠程管理系統,連續監測伺服器性能,記錄伺服器狀態;
10、支持IPV4/IPV6;
11、支持NTP v1.v2.v3&v4 (RFC1119&1305)、SNTP (RFC2030)、 MD5 Authentication (RFC1321)、 Telnet (RFC854)、FTP(RFC959)、HTTP/SSL/HTTPS (RFC2616)、SSH/SCP (Internet Draft)、 SNMP v1,v2、MIB II (RFC1213)、PTP;
12、支持分組bonding負載均衡/冗餘模式,保證系統可靠性;
13、支持日誌記錄功能;14、支持Web界面;15、支持授時客戶端管理;16、支持心跳檢測和雙機熱備;17、支持雙電源供電;18、支持步進調整功能;
主要技術指標
l 負載均衡設計,充分發揮伺服器性能,客戶端能智能鎖定狀態最穩定的時鍾伺服器並獲取標准時間
l
l 人性化的人機對話界面,簡單的IP修改,狀態查詢,時區設置等均可通過面板按鍵操作完成,不需復雜的系統設置,降低系統維護難度。
l 通過心跳線連接的主、備NTP之間可以相互監測,能夠互相之間監測到對方的工作狀態。
l 系統擴容性強,本公司生產的時鍾伺服器系統帶有專門的介面擴展塢,可以根據需求擴展E1,10MHZ、1PPS、RIRG-B、DGFF77等信號。
l 工廠模式設置,獲得廠家授權後可以使設備恢復出廠設置
l 客戶終端同步精度:1-10ms(典型值,與網路傳輸性能有關)
l NTP請求響應:不小於8000次/秒
l 北斗/GPS雙模時鍾參考模式,一級網路時間伺服器
l Slave模式:同步於其他NTP伺服器
l 支持廣播模式
l 可以利用broadcast/multicast、client/server、symmetric三種方式與其他伺服器對時
l 可同步數萬台客戶端、伺服器、工作站等設備時鍾
l 兩台設備網卡可設為同一IP,互為冗餘備份
l 支持Bonding功能,同一設備2個網卡可設為同一IP,單機即可實現網卡故障備份輸出,介面可選
l 客戶端支持WINDOWS9X、WINDOWS NT/2000/XP/2003、LINUX、UNIX、SUN SOLARIS、IBMAIX等操作系統和CISCO的路由器及交換機
l 多種配置方法,可使用Console模式、SSH、Telnet和FTP進行遠程管理、配置和升級
l 支持雙電源冗餘備份,適合極端條件使用
l 系統設備工作時間:24小時連續不間斷工作
l 獲取前端設備時間模塊 獲取從資料庫中的設備列表,根據列表進行時間獲取並保存臨時表
l 獲取非標准時間列表模塊 根據臨時表中的數據,將前端主機中系統時間不標準的設備進行篩選出來
l 提供NTP伺服器和客戶端的授時監視軟體,可以監視NTP伺服器和授時客戶端的同步和時間偏差情況。可通過snmp、syslog等協議告警。NTP伺服器信息監視,包括運行時間,同步狀態,伺服器的網路參數等信息。
技術參數及性能特點:
NTP網路時間伺服器提供的高精度的網路同步時鍾直接來自於GPS系統中各個衛星的原子鍾(也可以根據用戶的要求選擇其他衛星授時系統作為時間的基準源),設備由高精度高靈敏度授時型GPS接收機、高可靠性工業級伺服器主板、高亮度VFD液晶顯示屏和高品質1U工業機箱等部件組成,採用高效的嵌入式Linux操作系統,配合泰福特電子自主知識產權的衛星授時、網路同步、頻率測控等技術,該產品系統整體功耗小,採用無風扇設計,運行可靠穩定,可以為計算機網路、計算機應用系統、流程式控制制管理系統、電子商務系統、網上B2B系統以及資料庫的保存及維護等系統需要提供精密的標准時間信號和時間戳服務,已經被成功應用於政府金融、移動通信、公安、石油、電力、交通、工業以及國防等領域。

⑧ Ceph高可用部署和主要組件介紹

本教程用官網最近的cephadm來搭建ceph集群。

第一周作業:1.ceph的組件和功能2.ceph的數據讀寫流程3.使用ceph-deploy安裝一個最少三個節點的ceph集群 推薦3個或以上的磁碟作為專用osd 4.測試ceph的rbd使用

1·Ceph組件和功能

組件

Ceph OSDs : ( Ceph OSD )object storage daemon的功能是存儲數據,處理數據的復制、恢復、回填、再均衡,並通過檢查其他OSD 守護進程的心跳來向 Ceph Monitors 提供一些監控信息。當 Ceph 存儲集群設定為有2個副本時,至少需要2個 OSD 守護進程,集群才能達到 active+clean 狀態( Ceph 默認有3個副本,但你可以調整副本數)。

Monitors : 維護著展示集群狀態的各種圖表,包括監視器圖、 OSD 圖、歸置組( PG )圖、和 CRUSH 圖。 Ceph 保存著發生在Monitors 、 OSD 和 PG上的每一次狀態變更的歷史信息(稱為 epoch )。

MDSs : Ceph 元數據伺服器為 Ceph 文件系統存儲元數據(也就是說,Ceph 塊設備和 Ceph 對象存儲不使用MDS )。元數據伺服器使得 POSIX 文件系統的用戶們,可以在不對 Ceph 存儲集群造成負擔的前提下,執行諸如 ls、find 等基本命令。

CephMgr :在一個主機上的守護進程,負責運行指標,運行狀態,性能負載,

其他術語:

RADOS:多個主機組成的存儲集群,即可靠,自動化,分布式的對象存儲系統。

File:  就是普通文件,ObjectRADOS看到的對象,Object與File的區別是, Object的最大尺寸由RADOS限定(通常為2MB或4MB) ,以便實現底層存儲的組織管理。因此,當上層應用向RADOS存入尺寸很大的File時,需要將File切分成統一大小的一系列Objet (最後一個的大小可以不同)進行存儲。

librados:RADOS集群的API,支持大部分主流語言。

Pool:存儲池,大小取決於底層的存儲空間。

PG:placeholder group,一個pool(存儲池)內可以有多個PG,pool個pg都是抽象的邏輯概念,可以通過公示計算。PG的用途是對Object的存儲進行組織和位置映射的。具體而言,一個PG負責組織若干個Object,但一個Obiect只能被映射到一個PG中,即PG和Object之間是「一對多」的映射關系。同時,一個PG會被映射到n個OSD上,而每個OSD上都會承載大量的PG,即PG和OSD之間是「多對多」的映射關系。在實踐當中,n至少為2,如果用於生產環境,則至少為3。一個OSD上的PG可達到數百個。事實上, PG數量的設置關繫到數據分布的均勻性問題。

OSD daemon:默認每2秒發送狀態數據給monitor,(同時監控組內其他OSD的狀態)(up 可以提供IO,down不能提供,in有數據,out沒有數據)

PG和OSD之間的關系通過CRUSH演算法得出的。常規這三個 OSD daemon 可以在一台機器上,也可以在不同機器上;那麼根據 CRUSH 演算法會盡可能的保證一個平衡,就是不在同一個機器上;畢竟Ceph中的數據是一個為平衡的狀態,一切都是通過CRUSH 演算法來實現的數據平衡,而 PG 本身是個有序列表,位於第一的位置是 master;這個列表的產生是由 monitor 來產生的;

定址流程

File->Object映射 這次映射的目的是,將用戶要操作的File映射為RADOS能夠處理的Object,其十分簡單,本質上就是按照Object的最大尺寸(默認4M)對File進行切分,相當於磁碟陣列中的條帶化過程。這種切分的好處有兩個:一是讓大小不限的File變成具有一致的最大尺寸、可以被RADOS高效管理的Object;二是讓對單一File實施的串列處理變為對多個Object實施的並行化處理。每一個切分後產生的Object將獲得唯一的oid,即Object ID,其產生方式也是線性映射,極其簡單。 Object →PG映射 在File被映射為1個或多個Object之後,就需要將每個Object獨立地映射到1個PG中去。這個映射過程也很簡單,如圖所示,其計算公式如下:Hash(oid) & mask -> pgid由此可見,其計算由兩步組成。首先,使用Ceph系統指定的一個靜態哈希演算法計算oid的哈希值,將oid映射為一個近似均勻分布的偽隨機值。然後,將這個偽隨機值和mask按位相與,得到最終的PG序號(pgid) 。根據RADOS的設計,給定PG的總數為m(m應該為2的整數冪),則mask的值為m-1。因此,哈希值計算和按位與操作的整體結果事實上是從所有m個PG中近似均勻地隨機選擇1個。基於這一機制,當有大量Object和大量PG時, RADOS能夠保證Object和PG之間的近似均勻映射。又因為Object是由File切分而來的,大部分Object的尺寸相同,因此,這一映射最終保證了各個PG中存儲的Object的總數據量近似均勻。這里反復強調了「大量」 ,意思是只有當Object和PG的數量較多時,這種偽隨機關系的近似均勻性才能成立, Ceph的數據存儲均勻性才有保證。為保證「大量」的成立,一方面, Object的最大尺寸應該被合理配置,以使得同樣數量的File能夠被切分成更多的Object;另一方面, Ceph也推薦PG總數應該為OSD總數的數百倍,以保證有足夠數量的PG可供映射。 PG→ OSD映射 第3次映射就是將作為Object的邏輯組織單元的PG映射到數據的實際存儲單元OSD上。RADOS採用一個名為CRUSH的演算法,將pgid代入其中,然後得到一組共n個OSD。這n個OSD共同負責存儲和維護一個PG中的所有Objecto前面提到過, n的數值可以根據實際應用中對於可靠性的需求而配置,在生產環境下通常為3。具體到每個OSD,則由其上運行的OSD Daemon負責執行映射到本地的Object在本地文件系統中的存儲、訪問、元數據維護等操作。和「Object →PG"映射中採用的哈希演算法不同, CRUSH演算法的結果不是絕對不變的,而會受到其他因素的影響。其影響因素主要有兩個。一是當前系統狀態,也就是在前面有所提及的集群運行圖。當系統中的OSD狀態、數量發生變化時,集群運行圖也可能發生變化,而這種變化將會影響到PG與OSD之間的映射關系。二是存儲策略配置。這里的策略主要與安全相關。利用策略配置,系統管理員可以指定承載同一個PG的3個OSD分別位於數據中心的不同伺服器或機架上,從而進一步改善存儲的可靠性。因此,只有在系統狀態和存儲策略都不發生變化的時候, PG和OSD之間的映射關系才是固定不變的。在實際使用中,策略一經配置通常不會改變。而系統狀態的改變或是因為設備損壞,或是因為存儲集群規模擴大。好在Ceph本身提供了對這種變化的自動化支持,因而,即便PG與OSD之間的映射關系發生了變化,也並不會對應用產生影響。事實上, Ceph正是利用了CRUSH演算法的動態特性,可以將一個PG根據需要動態遷移到不同的OSD組合上,從而自動化地實現高可靠性、數據分布再平衡等特性。之所以在此次映射中使用CRUSH演算法,而不使用其他哈希演算法,一方面原因是CRUSH演算法具有上述可配置特性,可以根據管理員的配置參數決定OSD的物理位置映射策略;另一方面原因是CRUSH演算法具有特殊的「穩定性" ,也即,當系統中加入新的OSD,導致系統規模增大時,大部分PG與OSD之間的映射關系不會發生改變,只有少部分PG的映射關系會發生變化並引發數據遷移。這種可配置性和穩定性都不是普通哈希演算法所能提供的。因此, CRUSH演算法的設計也是Ceph的核心內容之一。 至此為止, Ceph通過3次映射,完成了從File到Object. Object到PG,PG再到OSD的整個映射過程。從整個過程可以看到,這里沒有任何的全局性查表操作需求。至於唯一的全局性數據結構:集群運行圖。它的維護和操作都是輕量級的,不會對系統的可擴展性、性能等因素造成影響 。

存儲過程總結:

1.計算文件到對象的映射

2.通過哈希演算法計算計算出文件對應的pool的PG

3.通過CRUSH把對象映射到PG中的OSD

4.PG種的OSD將對象寫入到磁碟

5.主OSD將數據同步到備份OSD,待備份OSD返回確認

6.主OSD的到備份OSD寫完操作以後給客戶的返回寫入成功

2. ceph的讀寫流程

當某個客戶端需要向Ceph集群寫入一個File時,首先需要在本地完成定址流程,將File變為一個Object,然後找出存儲該Object的一組共3個OSD,這3個OSD具有各自不同的序號,序號最靠前的那個OSD就是這一組中的Primary OSD,而後兩個則依次Secondary OSD和Tertiary OSD。找出3個OSD後,客戶端將直接和Primary OSD進行通信,發起寫入操作(步驟1)。 Primary OSD收到請求後,分別向Secondary OSD和Tertiary OSD發起寫人操作(步驟2和步驟3)。當Secondary OSD和Tertiary OSD各自完成寫入操作後,將分別向Primary OSD發送確認信息(步驟4和步驟5)。當Primary OSD確認其他兩個OSD的寫入完成後,則自己也完成數據寫入,並向客戶端確認Object寫入操作完成(步驟6)。之所以採用這樣的寫入流程,本質上是為了保證寫入過程中的可靠性,盡可能避免出現數據丟失的情況。同時,由於客戶端只需要向Primary OSD發送數據,因此在互聯網使用場景下的外網帶寬和整體訪問延遲又得到了一定程度的優化。當然,這種可靠性機制必然導致較長的延遲,特別是,如果等到所有的OSD都將數據寫入磁碟後再向客戶端發送確認信號,則整體延遲可能難以忍受。因此, Ceph可以分兩次向客戶端進行確認。當各個OSD都將數據寫入內存緩沖區後,就先向客戶端發送一次確認,此時客戶端即可以向下執行。待各個OSD都將數據寫入磁碟後,會向客戶端發送一個最終確認信號,此時客戶端可以根據需要刪除本地數據。分析上述流程可以看出,在正常情況下,客戶端可以獨立完成OSD定址操作,而不必依賴於其他系統模塊。因此,大量的客戶端可以同時和大量的OSD進行並行操作。同時,如果一個File被切分成多個Object,這多個Object也可被並行發送至多個OSD上。從OSD的角度來看,由於同一個OSD在不同的PG中的角色不同,因此,其工作壓力也可以被盡可能均勻地分擔,從而避免單個OSD變成性能瓶頸。

問:為什麼要設計三層映射而不是一層?

答:如果將object直接映射到一組OSD上,如果這種演算法是固定的哈希演算法,則意味著一個object被固定映射在一組OSD上,當其中一個OSD損壞時,object也無法部署到新的OSD上(因為映射函數不允許)。

如果設計一個動態演算法(例如CRUSH演算法)來完成這一映射,結果將是各個OSD所處理的本地元數據暴增,由此帶來的計算復雜度和維護工作量也是難以承受的。

綜上所訴,引入PG的好處至少有二:一方面試下呢object和OSD之間的動態映射,從而為Ceph的可靠性、自動化等特性的實現留下了空間;另一方面也有效簡化了數據的存儲組織,大大降低了系統的維護管理開銷。

1.准備工作

時間同步`

安裝ntpdate(時間同步工具)

# apt install ntpate

0* * * * ntpdate time1.aliyun.com

echo'0 * * * * ntpdate time1.aliyun.com'>> /var/spool/cron/crontabs/root

或者 可以通過

ansible all-mshell-a"echo  '0 * * * * ntpdate time1.aliyun.com' >> /var/spool/cron/crontabs/root"

關閉 selinux 和防火牆

root@node1:~# sudo ufw status  ##查看狀態

Status: inactive

root@node1:~# sudo ufw disable

Firewall stopped and disabled on system startup##禁用

root@node1:~#

配置域名解析或通過 DNS 解析

root@node1:~# cat /etc/hosts

127.0.0.1 localhost

root@node1:~# hostnamectl set-hostname 對應的名稱

## 以下是新增的 可以按照自己的習慣配置

192.168.106.101  node1

192.168.106.102  node2

192.168.106.103  node3

安裝python

root@node1:~# apt install python  ##python2

源修改成國內源  -- 具體步驟自行網路

https://mirrors.aliyun.com/ceph/#阿里雲鏡像倉庫

http://mirrors.163.com/ceph/#網易鏡像倉庫

https://mirrors.tuna.tsinghua.e.cn/ceph/#清華大學鏡像源

ceph用到的埠 (防火牆和安全中記得放開)

Ceph Monitor:啟用 Ceph MON 服務或埠 6789 (TCP)。

Ceph OSD 或元數據伺服器:啟用 Ceph OSD/MDS 服務或埠 6800-7300 (TCP)。

iSCSI 網關:打開埠 3260 (TCP)。

對象網關:打開對象網關通訊所用的埠。此埠在 /etc/ceph.conf 內以 rgw frontends = 開頭的行中設置。HTTP 的默認埠為 80,HTTPS (TCP) 的默認埠為 443。

NFS Ganesha:默認情況下,NFS Ganesha 使用埠 2049(NFS 服務、TCP)和 875 (rquota 支持、TCP)。

SSH:打開埠 22 (TCP)。

NTP:打開埠 123 (UDP)。

2.搭建ceph集群

安裝cephadm

root@node1:~#  wget https://github.com/ceph/ceph/raw/pacific/src/cephadm/cephadm ## node1 管理節點上執行

root@node1:~#  chmod +x cephadm

root@node1:~# ./cephadm add-repo --release pacific  ##設置要安裝的版本

root@node1:~#  which cephadm   ##確認是否安裝成功

初始化集群

root@node1:~# cephadm bootstrap --mon-ip 192.168.106.101   ##ceph集群第一個節點的ip

初始化完了以後就可以訪問dashboard了 地址 : https://node1:8443/#/dashboard 訪問用戶密碼上一步生成

添加其他節點和其他組件

root@node1:~# ssh-keygen

## 配置免密通信

root@node1:~#  ssh--id -f -i /etc/ceph/ceph.pub root@node2

root@node1:~#  ssh--id -f -i /etc/ceph/ceph.pub root@node3

## 添加node

root@node1:~#  ceph orch host add node2 192.168.106.102

root@node1:~#  ceph orch host add node3 192.168.106.103

## 添加osd

root@node1:~#  ceph orch daemon add osd node1:/dev/sdb

root@node1:~#  ceph orch daemon add osd node1:/dev/sdb

root@node1:~#  ceph orch daemon add osd node3:/dev/sdb

測試

root@node1:~#  ceph fs volume create testfs  ##添加測試fs

root@node1:~#  ceph orch apply mds testfs --placement="3" ##設置備份數

root@node1:~#   ceph orch daemon add mds testfs node1

root@node1:~#   ceph mds stat

## 在集群之外的或者任意機器上操作

root@node4:~#  apt install ceph-common -y

node1初始化集群的節點操作

root@node1:~#  scp /etc/ceph/ceph.client.admin.keyring user@node4:/etc/ceph

##  集群之外的clinet或者測試節點執行

root@node4:~#  mount -t ceph node1:/ /mnt/testfs -o name=admin,secret=AQAoJjBh7OPVNhAAQZyzLhDfgSj+KPmeU5RVlA==,fs=testfs  

root@node4:~#  mount -t ceph node2:/ /mnt/cephfs -o name=admin,secret=AQAoJjBh7OPVNhAAQZyzLhDfgSj+KPmeU5RVlA==,fs=testfs

root@node4:~#  df -h

Filesystem                  Size  Used Avail Use% Mounted on

udev1.4G01.4G0% /dev

tmpfs                       293M1.2M  292M1% /run

....

192.168.106.101:/            18G 1000M   17G6% /mnt/testfs

192.168.106.102:/            18G 1000M   17G6% /mnt/cephfs

root@node4:~#  cd /mnt/cephfs

root@node4:/mnt/cephfs#  dd if=/dev/zero of=test bs=1M count=100 ##生成文件

這時候文件是直接寫在ceph集群上看了, 可以通過dashboard觀察👀。

⑨ ntp時間同步伺服器

NTP時間同步伺服器是針對計算機、自動化裝置等進行校時而研發的高科技產品。NTP時間同步伺服器從GPS衛星上獲取標準的時間信號,將這些信號通過各種介面傳輸給自動化系統中需要時間信息的設備。

NTP服務工作模式為三種,即客戶/伺服器模式、廣播模式和對稱模塊。在客戶端/伺服器模式下,客戶端以周期性地發送NTP數據包,根據標記直觀查看工作狀態、事件結果等並及時反饋。

NTP時鍾同步伺服器利用衛星通信功能,可以構建中心主站系統對各廠站時間同步系統的集中監測和遠程維護,提高設備的運行可靠性。NTP時鍾同步伺服器採用SMT表面貼裝技術生產,以高速晶元進行控制,無硬碟和風扇設計,精度高、穩定性好、功能強、無積累誤差、不受地域氣候等環境條件限制、性價比高、操作簡單、全自動智能化運行,免操作維護,適合無人值守。

⑩ linux配置ntp時鍾源

(一)確認ntp的安裝
1)確認是否已安裝ntp

【命令】rpm –qa | grep ntp
若只有ntpdate而未見ntp,則需刪除原有ntpdate。如:
ntpdate-4.2.6p5-22.el7_0.x86_64
fontpackages-filesystem-1.44-8.el7.noarch
python-ntplib-0.3.2-1.el7.noarch

2)刪除已安裝ntp

【命令】yum –y remove ntpdate-4.2.6p5-22.el7.x86_64

3)重新安裝ntp

【命令】yum –y install ntp

(二)配置ntp服務
1)修改所有節點的/etc/ntp.conf

【命令】vi /etc/ntp.conf
【內容】

restrict 192.168.6.3 nomodify notrap nopeer noquery //當前節點IP地址
restrict 192.168.6.2 mask 255.255.255.0 nomodify notrap //集群所在網段的網關(Gateway),子網掩碼(Genmask)

2)選擇一個主節點,修改其/etc/ntp.conf

【命令】vi /etc/ntp.conf
【內容】在server部分添加一下部分,並注釋掉server 0 ~ n
server 127.127.1.0
Fudge 127.127.1.0 stratum 10

3)主節點以外,繼續修改/etc/ntp.conf

【命令】vi /etc/ntp.conf
【內容】在server部分添加如下語句,將server指向主節點。
server 192.168.6.3
Fudge 192.168.6.3 stratum 10

===修改前===

image
===修改後===
節點1(192.168.6.3):

image
節點2(192.168.6.4):

image
節點3(192.168.6.5):

image
(三)啟動ntp服務、查看狀態
1)啟動ntp服務

【命令】service ntpd start

2)查看ntp伺服器有無和上層ntp連通

【命令】ntpstat

image
查看ntp狀態時,可能會出現如下所示情況
① unsynchronised time server re-starting polling server every 8 s

image
② unsynchronised polling server every 8 s

image
這種情況屬於正常,ntp伺服器配置完畢後,需要等待5-10分鍾才能與/etc/ntp.conf中配置的標准時間進行同步。
等一段時間之後,再次使用ntpstat命令查看狀態,就會變成如下正常結果:

image
3)查看ntp伺服器與上層ntp的狀態

【命令】ntpq -p

image
remote:本機和上層ntp的ip或主機名,「+」表示優先,「*」表示次優先
refid:參考上一層ntp主機地址
st:stratum階層
when:多少秒前曾經同步過時間
poll:下次更新在多少秒後
reach:已經向上層ntp伺服器要求更新的次數
delay:網路延遲
offset:時間補償
jitter:系統時間與bios時間差
4)查看ntpd進程的狀態
【命令】watch "ntpq -p"
【終止】按 Ctrl+C 停止查看進程。

image
第一列中的字元指示源的質量。星號 ( * ) 表示該源是當前引用。
remote:列出源的 IP 地址或主機名。
when:指出從輪詢源開始已過去的時間(秒)。
poll:指出輪詢間隔時間。該值會根據本地時鍾的精度相應增加。
reach:是一個八進制數字,指出源的可存取性。值 377 表示源已應答了前八個連續輪詢。
offset:是源時鍾與本地時鍾的時間差(毫秒)。
(四)設置開機啟動
【命令】chkconfig ntpd on
(五)從其他博客的一些參考摘錄
===/etc/ntp.conf 配置內容===

[

復制代碼
](javascript:void(0); "復制代碼")
<pre style="margin: 0px; padding: 0px; white-space: pre-wrap; word-wrap: break-word; font-family: "Courier New" !important; font-size: 12px !important;"># 1. 先處理許可權方面的問題,包括放行上層伺服器以及開放區域網用戶來源:
restrict default kod nomodify notrap nopeer noquery <==拒絕 IPv4 的用戶
restrict -6 default kod nomodify notrap nopeer noquery <==拒絕 IPv6 的用戶
restrict 220.130.158.71 <==放行 tock.stdtime.gov.tw 進入本 NTP 的伺服器
restrict 59.124.196.83 <==放行 tick.stdtime.gov.tw 進入本 NTP 的伺服器
restrict 59.124.196.84 <==放行 time.stdtime.gov.tw 進入本 NTP 的伺服器
restrict 127.0.0.1 <==底下兩個是默認值,放行本機來源
restrict -6 ::1 restrict 192.168.100.0 mask 255.255.255.0 nomodify <==放行區域網用戶來源,或者列出單獨IP
2. 設定主機來源,請先將原本的 [0|1|2].centos.pool.ntp.org 的設定批註掉:
server 220.130.158.71 prefer <==以這部主機為最優先的server
server 59.124.196.83 server 59.124.196.84 # 3.默認的一個內部時鍾數據,用在沒有外部 NTP 伺服器時,使用它為區域網用戶提供服務:
server 127.127.1.0 # local clock
fudge 127.127.1.0 stratum 10 # 4.預設時間差異分析檔案與暫不用到的 keys 等,不需要更動它:
driftfile /var/lib/ntp/drift
keys /etc/ntp/keys </pre>

[

復制代碼
](javascript:void(0); "復制代碼")
===restrict選項格式===
restrict [ 客戶端IP ] mask [ IP掩碼 ] [參數]
「客戶端IP」 和 「IP掩碼」 指定了對網路中哪些范圍的計算機進行控制,如果使用default關鍵字,則表示對所有的計算機進行控制,參數指定了具體的限制內容,常見的參數如下:
◆ ignore:拒絕連接到NTP伺服器
◆ nomodiy: 客戶端不能更改服務端的時間參數,但是客戶端可以通過服務端進行網路校時。
◆ noquery: 不提供客戶端的時間查詢
◆ notrap: 不提供trap遠程登錄功能,trap服務是一種遠程時間日誌服務。
◆ notrust: 客戶端除非通過認證,否則該客戶端來源將被視為不信任子網 。
◆ nopeer: 提供時間服務,但不作為對等體。
◆ kod: 向不安全的訪問者發送Kiss-Of-Death報文。
===server選項格式===
server host [ key n ] [ version n ] [ prefer ] [ mode n ] [ minpoll n ] [ maxpoll n ] [ iburst ]
其中host是上層NTP伺服器的IP地址或域名,隨後所跟的參數解釋如下所示:
◆ key: 表示所有發往伺服器的報文包含有秘鑰加密的認證信息,n是32位的整數,表示秘鑰號。
◆ version: 表示發往上層伺服器的報文使用的版本號,n默認是3,可以是1或者2。
◆ prefer: 如果有多個server選項,具有該參數的伺服器有限使用。
◆ mode: 指定數據報文mode欄位的值。
◆ minpoll: 指定與查詢該伺服器的最小時間間隔為2的n次方秒,n默認為6,范圍為4-14。
◆ maxpoll: 指定與查詢該伺服器的最大時間間隔為2的n次方秒,n默認為10,范圍為4-14。
◆ iburst: 當初始同步請求時,採用突發方式接連發送8個報文,時間間隔為2秒。
===查看網關方法===
【命令1】route -n
【命令2】ip route show
【命令3】netstat -r
===層次(stratum)===
stratum根據上層server的層次而設定(+1)。
對於提供network time service provider的主機來說,stratum的設定要盡可能准確。
而作為區域網的time service provider,通常將stratum設置為10

image
0層的伺服器採用的是原子鍾、GPS鍾等物理設備,stratum 1與stratum 0 是直接相連的,
往後的stratum與上一層stratum通過網路相連,同一層的server也可以交互。
ntpd對下層client來說是service server,對於上層server來說它是client。
ntpd根據配置文件的參數決定是要為其他伺服器提供時鍾服務或者是從其他伺服器同步時鍾。所有的配置都在/etc/ntp.conf文件中。
[圖片上傳失敗...(image-f2dcb9-1561634142658)]
===注意防火牆屏蔽ntp埠===
ntp伺服器默認埠是123,如果防火牆是開啟狀態,在一些操作可能會出現錯誤,所以要記住關閉防火牆。ntp採用的時udp協議

sudo firewall-cmd --zone=public --add-port=123/udp --permanent

===同步硬體時鍾===
ntp服務,默認只會同步系統時間。
如果想要讓ntp同時同步硬體時間,可以設置/etc/sysconfig/ntpd文件,
在/etc/sysconfig/ntpd文件中,添加【SYNC_HWCLOCK=yes】這樣,就可以讓硬體時間與系統時間一起同步。
允許BIOS與系統時間同步,也可以通過hwclock -w 命令。
===ntpd、ntpdate的區別===
下面是網上關於ntpd與ntpdate區別的相關資料。如下所示所示:
使用之前得弄清楚一個問題,ntpd與ntpdate在更新時間時有什麼區別。
ntpd不僅僅是時間同步伺服器,它還可以做客戶端與標准時間伺服器進行同步時間,而且是平滑同步,
並非ntpdate立即同步,在生產環境中慎用ntpdate,也正如此兩者不可同時運行。
時鍾的躍變,對於某些程序會導致很嚴重的問題。
許多應用程序依賴連續的時鍾——畢竟,這是一項常見的假定,即,取得的時間是線性的,
一些操作,例如資料庫事務,通常會地依賴這樣的事實:時間不會往回跳躍。
不幸的是,ntpdate調整時間的方式就是我們所說的」躍變「:在獲得一個時間之後,ntpdate使用settimeofday(2)設置系統時間,
這有幾個非常明顯的問題:
【一】這樣做不安全。
ntpdate的設置依賴於ntp伺服器的安全性,攻擊者可以利用一些軟體設計上的缺陷,拿下ntp伺服器並令與其同步的伺服器執行某些消耗性的任務。
由於ntpdate採用的方式是跳變,跟隨它的伺服器無法知道是否發生了異常(時間不一樣的時候,唯一的辦法是以伺服器為准)。
【二】這樣做不精確。
一旦ntp伺服器宕機,跟隨它的伺服器也就會無法同步時間。
與此不同,ntpd不僅能夠校準計算機的時間,而且能夠校準計算機的時鍾。
【三】這樣做不夠優雅。
由於是跳變,而不是使時間變快或變慢,依賴時序的程序會出錯
(例如,如果ntpdate發現你的時間快了,則可能會經歷兩個相同的時刻,對某些應用而言,這是致命的)。
因而,唯一一個可以令時間發生跳變的點,是計算機剛剛啟動,但還沒有啟動很多服務的那個時候。
其餘的時候,理想的做法是使用ntpd來校準時鍾,而不是調整計算機時鍾上的時間。
NTPD在和時間伺服器的同步過程中,會把BIOS計時器的振盪頻率偏差——或者說Local Clock的自然漂移(drift)——記錄下來。
這樣即使網路有問題,本機仍然能維持一個相當精確的走時。
===國內常用NTP伺服器地址及IP===
210.72.145.44 (國家授時中心伺服器IP地址)
133.100.11.8 日本 福岡大學
time-a.nist.gov 129.6.15.28 NIST, Gaithersburg, Maryland
time-b.nist.gov 129.6.15.29 NIST, Gaithersburg, Maryland
time-a.timefreq.bldrdoc.gov 132.163.4.101 NIST, Boulder, Colorado
time-b.timefreq.bldrdoc.gov 132.163.4.102 NIST, Boulder, Colorado
time-c.timefreq.bldrdoc.gov 132.163.4.103 NIST, Boulder, Colorado
utcnist.colorado.e 128.138.140.44 University of Colorado, Boulder
time.nist.gov 192.43.244.18 NCAR, Boulder, Colorado
time-nw.nist.gov 131.107.1.10 Microsoft, Redmond, Washington
nist1.symmetricom.com 69.25.96.13 Symmetricom, San Jose, California
nist1-dc.glassey.com 216.200.93.8 Abovenet, Virginia
nist1-ny.glassey.com 208.184.49.9 Abovenet, New York City
nist1-sj.glassey.com 207.126.98.204 Abovenet, San Jose, California
nist1.aol-ca.truetime.com 207.200.81.113 TrueTime, AOL facility, Sunnyvale, California
nist1.aol-va.truetime.com 64.236.96.53 TrueTime, AOL facility, Virginia
————————————————————————————————————
ntp.sjtu.e.cn 202.120.2.101 (上海交通大學網路中心NTP伺服器地址)
s1a.time.e.cn 北京郵電大學
s1b.time.e.cn 清華大學
s1c.time.e.cn 北京大學
s1d.time.e.cn 東南大學
s1e.time.e.cn 清華大學
s2a.time.e.cn 清華大學
s2b.time.e.cn 清華大學
s2c.time.e.cn 北京郵電大學
s2d.time.e.cn 西南地區網路中心
s2e.time.e.cn 西北地區網路中心
s2f.time.e.cn 東北地區網路中心
s2g.time.e.cn 華東南地區網路中心
s2h.time.e.cn 四川大學網路管理中心
s2j.time.e.cn 大連理工大學網路中心
s2k.time.e.cn CERNET桂林主節點
s2m.time.e.cn 北京大學</pre>

閱讀全文

與pythonntp模塊相關的資料

熱點內容
社會學波普諾pdf 瀏覽:582
解壓做食物的小視頻 瀏覽:756
pdf怎麼單獨設置文件夾 瀏覽:472
業務邏輯程序員 瀏覽:659
addto新建文件夾什麼意思 瀏覽:160
有伺服器地址怎麼安裝軟體 瀏覽:659
安卓如何完全清除數據 瀏覽:690
安卓安卓證書怎麼信任 瀏覽:53
伺服器被攻擊如何解決 瀏覽:221
學霸變成程序員 瀏覽:881
c語言編譯錯誤fatalerror 瀏覽:441
ipv4內部伺服器地址怎麼分配 瀏覽:463
java線程安全的方法 瀏覽:950
重復命令畫梯形 瀏覽:164
在疫情就是命令 瀏覽:328
自己搭建一個什麼伺服器好玩 瀏覽:253
java基礎馬士兵 瀏覽:823
完美世界手游如何查看伺服器 瀏覽:859
光遇安卓與ios什麼時候互通 瀏覽:598
js如何運行時編譯 瀏覽:918