1. 華為rh2288hv2的伺服器怎麼做系統
1、獲取OS安裝相關資料;
2、設置BIOS參數;
3、為Teca伺服器配置硬碟RAID關系;
4、通過光碟或鏡像文件直接安裝伺服器OS;
5、登錄伺服器遠程式控制制界面,載入光碟或鏡像文件;
6、在伺服器Remote Contrle命令窗口工具欄中,單擊「打開」。在虛擬光碟機對話框選中「鏡像文件」,點擊「瀏覽」,彈出「打開」對話框。然後選擇OS的IOS鏡像文件,單擊「連接」。當「連接」顯示「斷開」後,表示虛擬光碟機已連接到伺服器;
7、重啟伺服器,伺服器開始重啟時「按F11」,進入「Boot Manager」界面。在啟動方式選擇界面,選擇從光碟機動;
8、在Welcom界面中進行如下設置:
(1)在Languahe區域選擇使用的語言;
(2)在Keyboard Layout區域選擇鍵盤模式;
(3)在License Agreement區域選擇「I agree to the License Terms」。
9、按照實際需求增加或刪除軟體選項,單擊「OK」;
10、按照提示依次更換光碟,完成基本安裝,然後系統重啟,進入「Password for the System Administrator」「root」界面,設置root用戶密碼,單擊「Next」,打開「Hostname and Domain Name」,設置伺服器的「Hostname」和「Domain Name」,單擊「Next」;
11、採用預設配置,單擊「Next」,打開「Test internet Connection」界面,即完成。
2. 為什麼有人說伺服器CPU垃圾
為什麼有人說伺服器CPU垃圾?
我覺得說伺服器CPU垃圾的原因有兩點
第一:主頻低, 游戲 體驗差點被當成垃圾什麼是伺服器CPU,就是用來給伺服器使用的,伺服器正常24小運行,對待CPU穩定性有很高的要求。另外要同時處理多個請求,但是每個請求並不是那麼的復雜,為了滿足條件伺服器CPU就有了以下幾個特點。
正是因為穩定,主頻低才合適做伺服器CPU,但是當我們把這類CPU拿來家用時,尤其是拿來運行大型的單機 游戲 ,這類對單核頻率有要求的 游戲 來說,可能伺服器CPU的表現就不那麼的出色,自然很多使用過這類CPU的 游戲 發燒級玩家會覺得此類CPU很垃圾。
准確的說,可能沒有沒有認識到此類CPU的針對領域吧,殺牛用羊刀,自然不是那麼順手。
第二:配對主板少,山寨居多,易出問題被當做垃圾
伺服器CPU絕大部分都是國外一些伺服器拆機然後送到國內的,俗稱「大船靠岸」,很多「自稱垃圾佬的圖吧大佬」喜歡研究的東西。
因為此類CPU的主板很難買到新的,因為生產這些的都去賣伺服器了。市場上流通的都是一些拆機主板,大家熟知的華南,科腦、美可可等品牌,也是佩服他們。能魔改成適配的,當然質量上就大打折扣了。很多不懂的小白上車,可能用不了多久主板壞了。城門失火殃及池魚,怪主板差的同時,CPU也被順帶看做垃圾了。
並且適配的主板如果是一線廠家生產的話價格很高,已經超出了同級別的家用電腦,主板貴,沒人買,COU自然便宜,便宜了自然有人認為是垃圾。
我覺得伺服器CPU並不是垃圾
看每個人怎麼使用了,我個人還在使用者E3處理器,很好用,也不存在什麼大的問題。關鍵看怎麼選配,怎麼去使用,合適自己的才是最重要的,而不是一味的認為伺服器的CPU就是垃圾。
以上是我對這個問題的解答和觀點,純手打,實屬不易,也僅表達個人觀點,希望能給讀者很好的參考,若是覺得寫的還可以就給個贊吧。
伺服器CPU好比大拖頭,桌面CPU好比小轎車。你要拿大拖頭來飆車顯然飆不過小轎車。但你拿來拉重活試試。高清視頻剪輯,3D建模渲染,多任務工作,那伺服器CPU哪怕是上代的性能也是杠杠的,而且不用擔心工作一半突然給你定住要你重啟,倒是你拿來 游戲 ,那麼顯然不怎麼樣了。一個是賺錢的工具一個是拿來玩樂。怎麼比?
我是很懶的,我才不自己買主板一堆東西自己配。直接買個淘汰下來的品牌工作站主機,除開機自檢時間比較久,啟動系統後就非常爽了。
很多人的印象中都覺得伺服器CPU不值得購買,然而市面上很多伺服器CPU都賣的很火,比如英特爾志強E5系列,動輒8核心、10核心的至強CPU只賣不到一千元,然而英特爾和AMD最新款的消費級10核心以上的CPU至少都在3000元以上,從核心數量來看,很多人就是沖著E5這類伺服器CPU便宜量又足來的。
當然,對於主流應用和 游戲 來說,市面上大部分的伺服器CPU都不太合適,一方面是因為這些CPU都是老舊伺服器淘汰下來的,雖說核心數量多,但是架構較老,頻率也不高,真要比玩 游戲 的話,這些動輒10核心以上的伺服器CPU可能還不如酷睿I3效果好。另外,大部分的日常應用對多核心CPU的支持不佳,伺服器CPU核心數量雖多,但是反倒派不上用場。
不過即使如此,像至強E5 2000系列的CPU仍然非常熱銷,工作室買來可以加速視頻渲染和3D渲染,提高內容創作效率,還有的 游戲 工作室專門買這類CPU 游戲 多開,畢竟核心越多,越能承受多個 游戲 同時運行的壓力,這是那些普通消費級CPU難以相比的。
有的人可能擔心這類CPU的保修問題,確實這類伺服器CPU基本都屬於二手貨,沒法考慮保修問題,但是CPU正常使用中就很難損壞,唯一值得擔心的反倒是主板,這從一定程度上就要看運氣了,不過好歹這類平台的價格都不貴,如果是用個兩三年壞了也算是用值了。
說伺服器cpu垃圾的都是一些不思進取整天呆在家裡打 游戲 的人
不是伺服器CPU垃圾,而是人的認知沒有到位,覺得對自己用處不大的東西就垃圾,實際上去看看伺服器CPU的價格和家用CPU的價格,就知道伺服器的CPU到底垃圾不垃圾,當然這里的價格是指一手的價格,不要拿那些洋垃圾的價格來說事情。伺服器CPU和家用CPU相比,往往有以下特點,主頻低,核心多3,IO性能更強,更注重穩定性。
所以對於普通用戶而言,伺服器CPU並不是很適合,其中影響最大的還是主頻,在桌面處理器已經突破5GHz的情況下,伺服器CPU的頻率往往還在4GHz徘徊,而且核心數量越多的型號,其頻率更低,譬如最新的AMD EPYC系列產品裡面,我們可以看到頻率最高的是8核16線程的產品,其主頻也才4.1GHz,而桌面的8核16線程早就是4.7GHz的水平了,而最高端的EPYC產品,核心數量達到了64核,但是主頻最高只有3.675GHz。
而頻率對於單線程的性能影響是很關鍵的,在 游戲 等項目上面,高主頻的CPU往往具有更好的性能表現,這也導致了在 游戲 等方面的表現中,伺服器CPU往往不如桌面CPU,而這個也是伺服器CPU垃圾的主要原因,此外我們以AMD EPYC產品的價格為例,我們可以看到伺服器的CPU價格遠超桌面的產品,所以更加讓人覺得服務CPU垃圾。
不過這些錢並不能說是白花了,伺服器CPU在IO部分的表現是可以秒殺桌面處理器的,目前的桌面處理器往往也就是支持雙通道內存,而伺服器CPU直接支持8通道內存了,此外在PCI-E通道數量上面,伺服器CPU的數量也遠超普通桌面CPU,可以看到EPYC伺服器CPU支持高達128個PCI-E通道,而桌面的往往也就是20條左右。
此外在主板的選擇上面,伺服器CPU往往也不會有很多選擇,而且其考慮的也不是家用環境,所以對於普通玩家而言,其周邊的配置往往也不合意,而且價格也往往很貴,這進一步讓伺服器CPU沒有那麼香了。
當然如果是洋垃圾的話,成本會便宜很多,整體成本可以做得比家用更低,但是主頻低的問題依舊無解,主板的話,這個裡面的水就比較深了,二手伺服器主板,山寨板,HEDT平台的新主板都有,這也導致了搭配出來的平台良莠不一,出點問題就滿天飛,給大家帶來不好的印象。
總的來說,伺服器CPU在今天對於個人用戶早就沒有必要了,桌面上面的8核16線程也算是很常見的配置了,16核32線程的產品也有了,已經不是當年最高4核8核心的時代了,伺服器CPU早就沒有那麼香了,如果不是玩家的話,就不要去玩伺服器CPU了。
伺服器CPU垃圾——洋垃圾。
其實這應該分兩方面說
在銳龍出現之前,一直是英特爾霸佔著CPU市場,無論是雙核、四核普通桌面級,還是六核、八核旗艦級,甚至連十核、十二核的伺服器CPU也進入了不少家庭。
而多核心低主頻的伺服器CPU是從哪裡來的,這成了他們洋垃圾稱號的起源——新型號的太貴用不起,走進家庭的伺服器CPU都是些便宜貨,是從淘汰的伺服器上扒拉下來的。
這樣的CPU不好嗎?沒有什麼不好,主頻低、發熱高而已,並沒有太多缺點,性能來說,多核心給多任務、多線程軟體提供了很多便利。
但是,這樣的CPU需要搭配相應特殊的主板才可以使用,這才是真正有風險、被說成垃圾的地方。
像X58、X79這種主板,市面上很少買的到大廠產品,畢竟是賣伺服器的。想要好主板只能買到拆機板。而這時候,科腦、華南、美可可等品牌的X58X79主板就應運而生了。而其做工、質量,都不可能跟技嘉華碩微星比較,但是售價也不低,四五百一張,而且豪華版的賣八百多。沒辦法,想用多核撐場面,就得靠這種主板,畢竟是新的,有售後。
隨著銳龍一代上市,六核、八核的桌面級CPU才有機會走進千家萬戶,二代銳龍上市,進一步拉低了六核十二線程、八核十六線程CPU的售價,三代銳龍上市,一代二代銳龍價格更低,八核十六線程才一千多點,而且可以搭配質量過硬的大廠主板,還可以使用最新的技術——RGB、M.2、XFR等。這時E5、E7才算是真正到了尷尬的時候——可玩性不高,就像是一頭忠實的老牛,只能低頭幹活,沒有任何趣味,而且主板隨時翻車。
這就使原本自嘲的洋垃圾真正變成垃圾了——多核多線程的優勢在銳龍面前不堪一擊,主頻沒銳龍高,主板質量差。
雖然如此,這並不能說CPU如何如何,畢竟在英特爾擠牙膏的那些年,E5E7填補了多核多線程的空白,而且錯不在CPU在主板。要用發展眼光看待它們,它們只是跟不上這兩年的 科技 步伐了。如果手裡還用著E5的用戶,請善待它們,它們很老了,但是依然勤勤懇懇。如果新用戶裝機,買新不買舊就是說給你們聽的,感受 科技 的魅力吧。
伺服器CPU一點兒也不垃圾。
華南X79主板烈焰戰神,CPU是 E5-2680V2,32G伺服器內存,性能杠杠的!
要是追求單核頻率高些,2643V2.很劃算,主頻3.5G,六核心十二線程。2667v2,2673v2都很好。
玩 游戲 也不差,配個好點兒的顯卡就行了。
x99先進些,2678v3很流行,實際體驗沒多大差異。
主板要用大板,兩個或三個顯卡插槽。要有m2介面,快很多。四個內存插槽,方便組成雙通道。
不 服務區cpu並不垃圾 反而性價比還很高 我做視頻剪輯 用的就是工包主板x79加至強E5的服務區CPU還用了ECC服務區內存 價格低 性能好 其實適用才是王道 如果你玩大型 游戲 的話 主頻高的普通版本的cpu很適合 但是如果你好做視頻 圖形圖像處理的話 伺服器的cpu 你可以考慮一下啊 不會讓你失望的
因為這些人基本就是沒玩過這類CPU,另一方面主要是支持這類CPU的主板太少,而大部分支持這類CPU的主板都是小廠,其實伺服器U類別很多,其中不乏有一些最貼近普通PC的單路U,比方說當年的E3 1230,這些CPU都是核心數不高但是主頻還是非常不錯的,一般都是用來做高性能工作站使用的,這種一般就是I7類型的伺服器版。
還有現在的多路伺服器CPU的中高端產品,核心數量都是可以動態調整的,比如說AMD的宵龍,動態調整核心,其玩 游戲 也是非常厲害的。
其實我們很多時候概念還是停留在過去的思想裡面裡面,其實現在我們的 游戲 已經對多核做過很好地優化了,雖然伺服器版的主頻很低,但是你會發現 游戲 幀速率並沒有拉到多地,這說明伺服器版的CPU在 游戲 方面還是可以完全勝任的。
另外很多人喜歡搞伺服器CPU主要是因為伺服器CPU便宜,U便宜,內存也非常便宜,隨便上個64GB的內存也花不了多少錢,最重要的是現在很多經典的伺服器CPU也有高主頻的,即使在玩 游戲 方面也十分充足。
另外造成一個最大的誤解,就是很多人說伺服器CPU垃圾,其實真正的原因是你不會選擇,有些CPU天生下來就是為了穩定性,比如一些文件伺服器用的2450/2650,其核心主頻是非常低的,但是核心數多,其主要目的就是為了保證穩定性,你說你要是用這種伺服器CPU玩 游戲 那就太難為他們了,因為時鍾頻率太低了。因為低功耗問題這類伺服器CPU閹割了大量的ALU單元,其邏輯運算單元完全無法保證復雜的大量邏輯運算,玩 游戲 當然卡不說幀數還上不去。
你可以淘那些從提供伺服器虛擬化那種的CPU,其主頻高ALU單元多,雖然在壽命方有損耗但是不影響你玩 游戲 。總之伺服器CPU要看你會不會選擇,並且有更好的主板支持的話,我覺得在很多方面吊打消費級CPU是沒有任何問題的,尤其是性價比方面。
專業專用
有一說一,一個東西設計成什麼樣的,大家最好就按照什麼樣的用法來用。
相信很多朋友沒買過雲伺服器,所以我先講講怎麼玩雲伺服器。首先你要挑一個看著順眼的廠商,然後花錢買(其實應該叫租)一定時長的伺服器資源,然後廠商就會給你分配一個虛擬機,這個虛擬機就等於是你自己的了,可以隨便怎麼玩,比如打個小網站、掛個下載器當網盤之類的都可以。而這些廠商會為大量用戶提供這種服務,那麼大家應該也可以想到,這些廠商使用的伺服器CPU應該具有一下特徵: 主頻低,核心多,可以同時支持大量並發。
但是這些特性,和我們家用用戶基本完全沒什麼關系。一般的 游戲 和應用對多核的優化不是那麼完善,多核特性用處不是很大。主頻低會導致很多需要單核性能的應用和 游戲 卡頓。綜合起來,你說使用體驗能好嗎?
英特爾擠牙膏很多人用伺服器CPU的很大一個原因,其實是因為當年英特爾沒啥對手,家用CPU性價比不高。當年我混跡顯卡吧的時候,看到很多人裝機用的都是伺服器的那款E3V2, 當時的家用酷睿系列的處理器價格高,但是單核性能對比伺服器CPU來說拉不開差距,結果就是性價比被完爆。
不過這種情況現在應該是不存在了,AMD自從出了銳龍系列處理器,英特爾有了競爭對手,再也不敢擠牙膏了。所以現在這個時段,家用裝機,正常挑選一款家用CPU就可以了,沒必要在迷信當年的經驗去用伺服器CPU。如果你還要頭硬去用的話,很可能會因為主頻低,運行 游戲 卡,而發出類似本問題的抱怨: 「為什麼伺服器CPU這么垃圾」
3. 如何使用OpenStack,Docker和Spark打造一個雲服務
蘑菇街基於 OpenStack 和 Docker 的私有雲實踐
本次主要想分享一下過去一年時間里,我們在建設基於Docker的私有雲實踐過程中,曾經遇到過的問題,如何解決的經驗,還有我們的體會和思考,與大家共勉。
在生產環境中使用Docker有一些經歷和經驗。私有雲項目是2014年聖誕節期間上線的,從無到有,經過了半年多的發展,經歷了3次大促,已經逐漸形成了一定的規模。
架構
集群管理
大家知道,Docker自身的集群管理能力在當時條件下還很不成熟,因此我們沒有選擇剛出現的 Swarm,而是用了業界最成熟的OpenStack,這樣能同時管理Docker和KVM。我們把Docker當成虛擬機來跑,是為了能滿足業務上對虛擬化的需求。今後的思路是微服務化,把應用進行拆分,變成一個個微服務,實現PaaS基於應用的部署和發布。
通過OpenStack如何管理Docker?我們採用的是OpenStack+nova-docker+Docker的架構模式。nova- docker是StackForge上一個開源項目,它做為nova的一個插件,通過調用Docker的RESTful介面來控制容器的啟停等動作。
我們在IaaS基礎上自研了編排調度等組件,支持應用的彈性伸縮、灰度升級等功能,並支持一定的調度策略,從而實現了PaaS層的主要功能。
同時,基於Docker和Jenkins實現了持續集成(CI)。Git中的項目如果發生了git push等動作,便會觸發Jenkins Job進行自動構建,如果構建成功便會生成Docker Image並push到鏡像倉庫。基於CI生成的Docker Image,可以通過PaaS的API或界面,進行開發測試環境的實例更新,並最終進行生產環境的實例更新,從而實現持續集成和持續交付。
網路和存儲
網路方面,我們沒有採用Docker默認提供的NAT網路模式,NAT會造成一定的性能損失。通過OpenStack,我們支持Linux bridge和Open vSwitch,不需要啟動iptables,Docker的性能接近物理機的95%。
容器的監控
監控方面,我們自研了container tools,實現了容器load值的計算,替換了原有的top、free、iostat、uptime等命令。這樣業務方在容器內使用常用命令時看到的是容器的值,而不是整個物理機的。目前我們正在移植Lxcfs到我們的平台上。
我們還在宿主機上增加了多個閾值監控和報警,比如關鍵進程監控、日誌監控、實時pid數量、網路連接跟蹤數、容器oom報警等等。
冗災和隔離性
冗災和隔離性方面,我們做了大量的冗災預案和技術准備。我們能夠在不啟動docker daemon的情況下,離線恢復Docker中的數據。同時,我們支持Docker的跨物理機冷遷移,支持動態的CPU擴容/縮容,網路IO磁碟IO的限速。
遇到的問題及解決方法
接近一年不到的產品化和實際使用中我們遇到過各種的問題,使用Docker的過程也是不斷優化Docker、不斷定位問題、解決問題的過程。
我們現在的生產環境用的是CentOS 6.5。曾經有個業務方誤以為他用的Docker容器是物理機,在Docker容器裡面又裝了一個Docker,瞬間導致內核crash,影響了同一台物理機的其他Docker容器。
經過事後分析是2.6.32-431版本的內核對network namespace支持不好引起的,在Docker內創建bridge會導致內核crash。upstream修復了這個bug,從2.6.32-431升級到2.6.32-504後問題解決。
還有一個用戶寫的程序有bug,創建的線程沒有及時回收,容器中產生了大量的線程,最後在宿主機上都無法執行命令或者ssh登陸,報的錯是"bash: fork: Cannot allocate memory",但通過free看空閑的內存卻是足夠的。
經過分析,發現是內核對pid的隔離性支持不完善,pid_max(/proc/sys/kernel/pid_max)是全局共享的。當一個容器中的pid數目達到上限32768,會導致宿主機和其他容器無法創建新的進程。最新的4.3-rc1才支持對每個容器進行pid_max限制。
我們還觀察到docker的宿主機內核日誌中會產生亂序的問題。經過分析後發現是由於內核中只有一個log_buf緩沖區,所有printk列印的日誌先放到這個緩沖區中,docker host以及container上的rsyslogd都會通過syslog從kernel的log_buf緩沖區中取日誌,導致日誌混亂。通過修改 container里的rsyslog配置,只讓宿主機去讀kernel日誌,就能解決這個問題。
除此之外,我們還解決了device mapper的dm-thin discard導致內核crash等問題。
體會和思考
最後分享一下我們的體會和思考,相比KVM比較成熟的虛擬化技術,容器目前還有很多不完善的地方,除了集群管理、網路和存儲,最重要的還是穩定性。影響穩定性的主要還是隔離性的不完善造成的,一個容器內引起的問題可能會影響整個系統。
容器的memcg無法回收slab cache,也不對dirty cache量進行限制,更容易發生OOM問題。還有,procfs上的一些文件介面還無法做到per-container,比如pid_max。
另外一點是對容器下的運維手段和運維經驗的沖擊。有些系統維護工具,比如ss,free,df等在容器中無法使用了,或者使用的結果跟物理機不一致,因為系統維護工具一般都會訪問procfs下的文件,而這些工具或是需要改造,或是需要進行適配。
雖然容器還不完善,但是我們還是十分堅定的看好容器未來的發展。Kubernetes、Mesos、Hyper、CRIU、runC等容器相關的開源軟體,都是我們關注的重點。
Q&A
Q:請問容器間的負載均衡是如何做的?
A: 容器間的負載均衡,更多是PaaS和SaaS層面的。我們的P層支持4層和7層的動態路由,通過域名的方式,或者名字服務來暴露出對外的介面。我們能夠做到基於容器的灰度升級,和彈性伸縮。
Q:請問你們的OpenStack是運行在CentOS 6.5上的嗎?
A: 是的,但是我們針對OpenStack和Docker依賴的包進行了升級。我們維護了內部的yum源。
Q:請問容器IP是靜態編排還是動態獲取的?
A: 這個跟運維所管理的網路模式有關,我們內部的網路沒有DHCP服務,因此對於IaaS層,容器的IP是靜態分配的。對於PaaS層來說,如果有DHCP服務,容器的App所暴露出來IP和埠就可以做到動態的。
Q:請問你們當時部署的時候有沒有嘗試過用Ubuntu,有沒有研究過兩個系統間的區別,另外請問你們在OpenStack上是怎樣對這些虛擬機監控的?
A: 我們沒有嘗試過Ubuntu,因為公司生產環境上用的是CentOS。我們的中間件團隊負責公司機器的監控,我們和監控團隊配合,將監控的agent程序部署到宿主機和每個容器里,這樣就可以當成虛擬機來進行監控。
當然,容器的數據是需要從cgroups里來取,這部分提取數據的工作,是我們來實現的。
Q:容器間的網路選型有什麼建議,據說採用虛擬網卡比物理網卡有不小的性能損失,Docker自帶的weaves和ovs能勝任嗎?
A: 容器的網路不建議用默認的NAT方式,因為NAT會造成一定的性能損失。之前我的分享中提到過,不需要啟動iptables,Docker的性能接近物理機的95%。Docker的weaves底層應該還是採用了網橋或者Open vSwitch。建議可以看一下nova-docker的源碼,這樣會比較容易理解。
Q:靜態IP通過LXC實現的嗎?
A: 靜態IP的實現是在nova-docker的novadocker/virt/docker/vifs.py中實現的。實現的原理就是通過ip命令添加 veth pair,然後用ip link set/ip netns exec等一系列命令來實現的,設置的原理和weaves類似。
Q:容器內的進程gdb你們怎麼弄的,把gdb打包到容器內嗎?
A: 容器內的gdb不會有問題的,可以直接yum install gdb。
Q:共享存儲能直接mount到容器里嗎?
A: 雖然沒試過,但這個通過docker -v的方式應該沒什麼問題。
Q:不啟動Docker Daemon的情況下,離線恢復Docker中的數據是咋做到的?
A: 離線恢復的原理是用dmsetup create命令創建一個臨時的dm設備,映射到Docker實例所用的dm設備號,通過mount這個臨時設備,就可以恢復出原來的數據。
Q:Docker的跨物理機冷遷移,支持動態的CPU擴容/縮容,網路IO磁碟IO的限速,是怎麼實現的,能具體說說嗎?
A:Docker的冷遷移是通過修改nova-docker,來實現OpenStack遷移的介面,具體來說,就是在兩台物理機間通過docker commit,docker push到內部的registry,然後docker pull snapshot來完成的。
動態的CPU擴容/縮容,網路IO磁碟IO的限速主要是通過novadocker來修改cgroups中的cpuset、iops、bps還有TC的參數來實現的。
Q:請問你們未來會不會考慮使用Magnum項目,還是會選擇Swarm?
A:這些都是我們備選的方案,可能會考慮Swarm。因為Magnum底層還是調用了Kubernetes這樣的集群管理方案,與其用Magnum,不如直接選擇Swarm或者是Kubernetes。當然,這只是我個人的看法。
Q:你們的業務是基於同一個鏡像么,如果是不同的鏡像,那麼計算節點如何保證容器能夠快速啟動?
A:運維會維護一套統一的基礎鏡像。其他業務的鏡像會基於這個鏡像來製作。我們在初始化計算節點的時候就會通過docker pull把基礎鏡像拉到本地,這也是很多公司通用的做法,據我了解,騰訊、360都是類似的做法。
Q:做熱遷移,有沒有考慮繼續使用傳統共享存儲的來做?
A: 分布式存儲和共享存儲都在考慮范圍內,我們下一步,就計劃做容器的熱遷移。
Q:請問你們是直接將公網IP綁定到容器嗎,還是通過其他方式映射到容器的私有IP,如果是映射如何解決原本二層的VLAN隔離?
A:因為我們是私有雲,不涉及floating ip的問題,所以你可以認為是公網IP。VLAN的二層隔離完全可以在交換機上作。我們用Open vSwitch劃分不同的VLAN,就實現了Docker容器和物理機的網路隔離。
Q:Device mapper dm-thin discard問題能說的詳細些嗎?
A:4月份的時候,有兩台宿主機經常無故重啟。首先想到的是查看/var/log/messages日誌,但是在重啟時間點附近沒有找到與重啟相關的信息。而後在/var/crash目錄下,找到了內核crash的日誌vmcore-dmesg.txt。日誌的生成時間與宿主機重啟時間一致,可以說明宿主機是發生了kernel crash然後導致的自動重啟。「kernel BUG at drivers/md/persistent-data/dm-btree-remove.c:181!」。 從堆棧可以看出在做dm-thin的discard操作(process prepared discard),雖然不知道引起bug的根本原因,但是直接原因是discard操作引發的,可以關閉discard support來規避。
我們將所有的宿主機配置都禁用discard功能後,再沒有出現過同樣的問題。
在今年CNUTCon的大會上,騰訊和大眾點評在分享他們使用Docker的時候也提到了這個crash,他們的解決方法和我們完全一樣。
Q:閾值監控和告警那塊,有高中低多種級別的告警嗎,如果當前出現低級告警,是否會採取一些限制用戶接入或者砍掉當前用戶正在使用的業務,還是任由事態發展?
A:告警這塊,運維有專門的PE負責線上業務的穩定性。當出現告警時,業務方和PE會同時收到告警信息。如果是影響單個虛擬機的,PE會告知業務方,如果嚴重的,甚至可以及時下掉業務。我們會和PE合作,讓業務方及時將業務遷移走。
Q:你們自研的container tools有沒有開源,GitHub上有沒有你們的代碼,如何還沒開源,後期有望開源嗎,關於監控容器的細粒度,你們是如何考慮的?
A:雖然我們目前還沒有開源,單我覺得開源出來的是完全沒問題的,請大家等我們的好消息。關於監控容器的細粒度,主要想法是在宿主機層面來監控容器的健康狀態,而容器內部的監控,是由業務方來做的。
Q:請問容器的layer有關心過層數么,底層的文件系統是ext4么,有優化策略么?
A:當然有關心,我們通過合並鏡像層次來優化docker pull鏡像的時間。在docker pull時,每一層校驗的耗時很長,通過減小層數,不僅大小變小,docker pull時間也大幅縮短。
Q:容器的memcg無法回收slab cache,也不對dirty cache量進行限制,更容易發生OOM問題。----這個緩存問題你們是怎麼處理的?
A:我們根據實際的經驗值,把一部分的cache當做used內存來計算,盡量逼近真實的使用值。另外針對容器,內存報警閾值適當調低。同時添加容器OOM的告警。如果升級到CentOS 7,還可以配置kmem.limit_in_bytes來做一定的限制。
Q:能詳細介紹下你們容器網路的隔離?
A:訪問隔離,目前二層隔離我們主要用VLAN,後面也會考慮VXLAN做隔離。 網路流控,我們是就是使用OVS自帶的基於port的QoS,底層用的還是TC,後面還會考慮基於flow的流控。
Q:請問你們這一套都是用的CentOS 6.5嗎,這樣技術的實現。是運維還是開發參與的多?
A:生產環境上穩定性是第一位的。CentOS 6.5主要是運維負責全公司的統一維護。我們會給運維在大版本升級時提建議。同時做好虛擬化本身的穩定性工作。
Q:請問容器和容器直接是怎麼通信的?網路怎麼設置?
A:你是指同一台物理機上的嗎?我們目前還是通過IP方式來進行通信。具體的網路可以採用網橋模式,或者VLAN模式。我們用Open vSwitch支持VLAN模式,可以做到容器間的隔離或者通信。
Q:你們是使用nova-api的方式集成Dcoker嗎,Docker的高級特性是否可以使用,如docker-api,另外為什麼不使用Heat集成Docker?
A:我們是用nova-docker這個開源軟體實現的,nova-docker是StackForge上一個開源項目,它做為nova的一個插件,替換了已有的libvirt,通過調用Docker的RESTful介面來控制容器的啟停等動作。
使用Heat還是NOVA來集成Docker業界確實一直存在爭議的,我們更多的是考慮我們自身想解決的問題。Heat本身依賴的關系較為復雜,其實業界用的也並不多,否則社區就不會推出Magnum了。
Q:目前你們有沒有容器跨DC的實踐或類似的方向?
A:我們已經在多個機房部署了多套集群,每個機房有一套獨立的集群,在此之上,我們開發了自己的管理平台,能夠實現對多集群的統一管理。同時,我們搭建了Docker Registry V1,內部准備升級到Docker Registry V2,能夠實現Docker鏡像的跨DC mirror功能。
Q:我現在也在推進Docker的持續集成與集群管理,但發現容器多了管理也是個問題,比如容器的彈性管理與資源監控,Kubernetes、Mesos哪個比較好一些,如果用在業務上,那對外的域名解析如何做呢,因為都是通過宿主機來通信,而它只有一個對外IP?
A: 對於Kubernetes和Mesos我們還在預研階段,我們目前的P層調度是自研的,我們是通過etcd來維護實例的狀態,埠等信息。對於7層的可以通過Nginx來解析,對於4層,需要依賴於naming服務。我們內部有自研的naming服務,因此我們可以解決這些問題。對外雖然只有一個IP,但是暴露的埠是不同的。
Q:你們有考慮使用Hyper Hypernetes嗎? 實現容器與宿主機內核隔離同時保證啟動速度?
A:Hyper我們一直在關注,Hyper是個很不錯的想法,未來也不排除會使用Hyper。其實我們最希望Hyper實現的是熱遷移,這是目前Docker還做不到的。
Q:你們宿主機一般用的什麼配置?獨立主機還是雲伺服器?
A:我們有自己的機房,用的是獨立的伺服器,物理機。
Q:容器跨host通信使用哪一種解決方案?
A: 容器跨host就必須使用3層來通信,也就是IP,容器可以有獨立的IP,或者宿主機IP+埠映射的方式來實現。我們目前用的比較多的還是獨立ip的方式,易於管理。
Q:感覺貴公司對Docker的使用比較像虛擬機,為什麼不直接考慮從容器的角度來使用,是歷史原因么?
A:我們首先考慮的是用戶的接受程度和改造的成本。從用戶的角度來說,他並不關心業務是跑在容器里,還是虛擬機里,他更關心的是應用的部署效率,對應用本身的穩定性和性能的影響。從容器的角度,一些業務方已有的應用可能需要比較大的改造。比如日誌系統,全鏈路監控等等。當然,最主要的是對已有運維系統的沖擊會比較大。容器的管理對運維來說是個挑戰,運維的接受是需要一個過程的。
當然,把Docker當成容器來封裝應用,來實現PaaS的部署和動態調度,這是我們的目標,事實上我們也在往這個方向努力。這個也需要業務方把應用進行拆分,實現微服務化,這個需要一個過程。
Q:其實我們也想用容器當虛擬機使用。你們用虛擬機跑什麼中間件?我們想解決測試關鍵對大量相對獨立環境WebLogic的矛盾?
A:我們跑的業務有很多,從前台的主站Web,到後端的中間件服務。我們的中間件服務是另外團隊自研的產品,實現前後台業務邏輯的分離。
Q:貴公司用OpenStack同時管理Docker和KVM是否有自己開發Web配置界面,還是單純用API管理?
A:我們有自研的Web管理平台,我們希望通過一個平台管理多個集群,並且對接運維、日誌、監控等系統,對外暴露統一的API介面。
Q:上面分享的一個案例中,關於2.6內核namespace的bug,這個低版本的內核可以安裝Docker環境嗎,Docker目前對procfs的隔離還不完善,你們開發的container tools是基於應用層的還是需要修改內核?
A:安裝和使用應該沒問題,但如果上生產環境,是需要全面的考慮的,主要還是穩定性和隔離性不夠,低版本的內核更容易造成系統 crash或者各種嚴重的問題,有些其實不是bug,而是功能不完善,比如容器內創建網橋會導致crash,就是network namespace內核支持不完善引起的。
我們開發的container tools是基於應用的,不需要修改內核。
Q:關於冗災方面有沒有更詳細的介紹,比如離線狀態如何實現數據恢復的?
A:離線狀態如何實現恢復數據,這個我在之前已經回答過了,具體來說,是用dmsetup create命令創建一個臨時的dm設備,映射到docker實例所用的dm設備號,通過mount這個臨時設備,就可以恢復出原來的數據。其他的冗災方案,因為內容比較多,可以再另外組織一次分享了。你可以關注一下http://mogu.io/,到時候我們會分享出來。
Q:貴公司目前線上容器化的系統,無狀態為主還是有狀態為主,在場景選擇上有什麼考慮或難點?
A:互聯網公司的應用主要是以無狀態的為主。有狀態的業務其實從業務層面也可以改造成部分有狀態,或者完全不狀態的應用。不太明白你說的場景選擇,但我們盡量滿足業務方的各種需求。
對於一些本身對穩定性要求很高,或對時延IO特別敏感,比如redis業務,無法做到完全隔離或者無狀態的,我們不建議他們用容器。
多進程好還是多線程好等等,並不是說因為Spark很火就一定要使用它。在遇到這些問題的時候、圖計算,目前我們還在繼續這方面的工作:作為當前流行的大數據處理技術? 陳,它能快速創建一個Spark集群供大家使用,我們使用OpenStack? 陳。 問,Hadoop軟硬體協同優化,在OpenPOWER架構的伺服器上做Spark的性能分析與優化:您在本次演講中將分享哪些話題。 問。多參與Spark社區的討論。曾在《程序員》雜志分享過多篇分布式計算、Docker和Spark打造SuperVessel大數據公有雲」,給upstrEAM貢獻代碼都是很好的切入方式、SQL,並擁有八項大數據領域的技術專利,MapRece性能分析與調優工具。例如還有很多公司在用Impala做數據分析:企業想要擁抱Spark技術,對Swift對象存儲的性能優化等等。例如與Docker Container更好的集成,大數據雲方向的技術負責人,Spark還是有很多工作可以做的?企業如果想快速應用Spark 應該如何去做,具體的技術選型應該根據自己的業務場景,Docker Container因為在提升雲的資源利用率和生產效率方面的優勢而備受矚目,高性能FPGA加速器在大數據平台上應用等項目,再去調整相關的參數去優化這些性能瓶頸,一些公司在用Storm和Samaza做流計算: 相比於MapRece在性能上得到了很大提升?
4. 華為rh2288hv2伺服器怎麼做系統
華為伺服器RH2288H V2有三種常見的方式可以做系統,它們分別是:
1、用ServiceCD的方式安裝;
2、用光碟或ISO鏡像文件進行安裝;
3、在載入硬碟控制器驅動的過程中完成OS安裝。
本文將介紹如何用光碟/ISO鏡像文件直接為華為伺服器RH2288H V2做系統,步驟如下:
一、獲取OS安裝相關材料;
二、設置BIOS參數;
三、為華為Tecal伺服器配置硬碟RAID關系;
四、通過光碟或鏡像文件直接安裝服務區OS;
五、登錄伺服器遠程式控制制界面,載入光碟或鏡像文件:
①若使用光碟進行安裝,應將OS安裝光碟放置到伺服器物理光碟機中,執行6;
②若使用ISO鏡像文件,執行2.
六、在伺服器
Remote Countrol命令窗口工具欄,單機光碟,將會彈出虛擬光碟機對話框,在框中點選『鏡像文件』並單擊「瀏覽」,將會彈開新對話框。在框中選
擇OS的ISO鏡像文件後,單擊「打開」。在虛擬光碟機對話框中,單擊「連接」,等待,直到「連接」狀態變為「斷開」,此時表示虛擬光碟機已成功連到華為服務
器RH2288H V2。
七、重啟華為伺服器RH2288H V2。
在伺服器啟動過程中,在屏幕下方出現「F11」相關英文提示以後,及時按鍵盤「F11」,進入『Boot Manager』界面。在『啟動方式』選項上選
擇『界面』,接著選擇『從光碟機啟動』。示例:「HUAWEI DVD-ROM VM 1.1.0」,最後,按『Enter』鍵進入華為伺服器RH2288H V2操作系統引導界面。
八、在『Welcome』界面進行三步設置:
①在『Language』語言選擇區域,建議設置為『English(US)』;
②在『Keyboard Layout』鍵盤模式區域,建議設置為『English(US)』;
③在『License Agreement』允許許可權區域,選擇設置『I Agree to the License Terms』。
九、按照實際需求增加/刪除軟體,完成後單擊『OK』,為避免以後出現一些特殊同類型的網卡不能再華為伺服器RH2288H V2上使用,建議勾選『C/C++ Compiler and Tools』。
十、按照向導提示
更換光碟,完成基礎安裝,之後重啟系統,進入『Password for the System Administrator 「root」 』界面,設
置root用戶密碼,牢記並備份!接著單擊『Next』,之後打開『Hostname and Domain Name』設置華為伺服器RH2288H V2的主機名及域名。
十一、採用『預設』(默認)配置,單擊『Next』,打開『Test internet Connection』界面,測試伺服器連接英特網的情況,若暢通,則至此完成了華為伺服器RH2288H V2系統的安裝。
參考資料:http://www.dongjiusoft.com/news_info.php?id=681(華為伺服器RH2288H V2如何裝系統?)
5. 雲伺服器怎麼搭建v2節點
1、首先,雲伺服器使首配用Xshell 6工具遠程登陸伺服器。
2、者敬指其次,關閉firewall;systemctlstopfirewalld.servicesystemctldisable firewalld。
3、最後,下載雲伺服器安裝v2ray腳本,即可完成雲伺服器搭建v2節點稿悔的操作。
6. v2雲怎麼用
首先第一步,需要進入到v2rayn的官網,然後找到最新版的zip壓縮包,找到之後點擊將它下載下來,點擊下載好安裝包之後,使用電腦上的壓縮軟體解壓下載的壓縮包,然後找到其中的exe程序,使用滑鼠雙擊之後即可運行程序。
程序運行之後在桌面的狀態欄中就可以看到一個紅色的圖標了,如下圖中所示,表示軟體已經處於運行狀態,之後點擊這個紅色的圖標,進入到軟體的主界面,然後需要在主界面左上角點擊伺服器按鈕,在出現的選項中選擇自己想要使用的方式添加節點,比較常用的是「添加VMess伺服器」,點擊這個添加選項之後等待添加完成,然後在界面中右鍵點擊任務欄紅色的圖標,在出現的選項中點擊「啟用Http代理」這個選項就可以進行使用了。