1. 华为rh2288hv2的服务器怎么做系统
1、获取OS安装相关资料;
2、设置BIOS参数;
3、为Teca服务器配置硬盘RAID关系;
4、通过光盘或镜像文件直接安装服务器OS;
5、登录服务器远程控制界面,加载光盘或镜像文件;
6、在服务器Remote Contrle命令窗口工具栏中,单击“打开”。在虚拟光驱对话框选中“镜像文件”,点击“浏览”,弹出“打开”对话框。然后选择OS的IOS镜像文件,单击“连接”。当“连接”显示“断开”后,表示虚拟光驱已连接到服务器;
7、重启服务器,服务器开始重启时“按F11”,进入“Boot Manager”界面。在启动方式选择界面,选择从光驱动;
8、在Welcom界面中进行如下设置:
(1)在Languahe区域选择使用的语言;
(2)在Keyboard Layout区域选择键盘模式;
(3)在License Agreement区域选择“I agree to the License Terms”。
9、按照实际需求增加或删除软件选项,单击“OK”;
10、按照提示依次更换光盘,完成基本安装,然后系统重启,进入“Password for the System Administrator”“root”界面,设置root用户密码,单击“Next”,打开“Hostname and Domain Name”,设置服务器的“Hostname”和“Domain Name”,单击“Next”;
11、采用缺省配置,单击“Next”,打开“Test internet Connection”界面,即完成。
2. 为什么有人说服务器CPU垃圾
为什么有人说服务器CPU垃圾?
我觉得说服务器CPU垃圾的原因有两点
第一:主频低, 游戏 体验差点被当成垃圾什么是服务器CPU,就是用来给服务器使用的,服务器正常24小运行,对待CPU稳定性有很高的要求。另外要同时处理多个请求,但是每个请求并不是那么的复杂,为了满足条件服务器CPU就有了以下几个特点。
正是因为稳定,主频低才合适做服务器CPU,但是当我们把这类CPU拿来家用时,尤其是拿来运行大型的单机 游戏 ,这类对单核频率有要求的 游戏 来说,可能服务器CPU的表现就不那么的出色,自然很多使用过这类CPU的 游戏 发烧级玩家会觉得此类CPU很垃圾。
准确的说,可能没有没有认识到此类CPU的针对领域吧,杀牛用羊刀,自然不是那么顺手。
第二:配对主板少,山寨居多,易出问题被当做垃圾
服务器CPU绝大部分都是国外一些服务器拆机然后送到国内的,俗称“大船靠岸”,很多“自称垃圾佬的图吧大佬”喜欢研究的东西。
因为此类CPU的主板很难买到新的,因为生产这些的都去卖服务器了。市场上流通的都是一些拆机主板,大家熟知的华南,科脑、美可可等品牌,也是佩服他们。能魔改成适配的,当然质量上就大打折扣了。很多不懂的小白上车,可能用不了多久主板坏了。城门失火殃及池鱼,怪主板差的同时,CPU也被顺带看做垃圾了。
并且适配的主板如果是一线厂家生产的话价格很高,已经超出了同级别的家用电脑,主板贵,没人买,COU自然便宜,便宜了自然有人认为是垃圾。
我觉得服务器CPU并不是垃圾
看每个人怎么使用了,我个人还在使用者E3处理器,很好用,也不存在什么大的问题。关键看怎么选配,怎么去使用,合适自己的才是最重要的,而不是一味的认为服务器的CPU就是垃圾。
以上是我对这个问题的解答和观点,纯手打,实属不易,也仅表达个人观点,希望能给读者很好的参考,若是觉得写的还可以就给个赞吧。
服务器CPU好比大拖头,桌面CPU好比小轿车。你要拿大拖头来飙车显然飙不过小轿车。但你拿来拉重活试试。高清视频剪辑,3D建模渲染,多任务工作,那服务器CPU哪怕是上代的性能也是杠杠的,而且不用担心工作一半突然给你定住要你重启,倒是你拿来 游戏 ,那么显然不怎么样了。一个是赚钱的工具一个是拿来玩乐。怎么比?
我是很懒的,我才不自己买主板一堆东西自己配。直接买个淘汰下来的品牌工作站主机,除开机自检时间比较久,启动系统后就非常爽了。
很多人的印象中都觉得服务器CPU不值得购买,然而市面上很多服务器CPU都卖的很火,比如英特尔志强E5系列,动辄8核心、10核心的至强CPU只卖不到一千元,然而英特尔和AMD最新款的消费级10核心以上的CPU至少都在3000元以上,从核心数量来看,很多人就是冲着E5这类服务器CPU便宜量又足来的。
当然,对于主流应用和 游戏 来说,市面上大部分的服务器CPU都不太合适,一方面是因为这些CPU都是老旧服务器淘汰下来的,虽说核心数量多,但是架构较老,频率也不高,真要比玩 游戏 的话,这些动辄10核心以上的服务器CPU可能还不如酷睿I3效果好。另外,大部分的日常应用对多核心CPU的支持不佳,服务器CPU核心数量虽多,但是反倒派不上用场。
不过即使如此,像至强E5 2000系列的CPU仍然非常热销,工作室买来可以加速视频渲染和3D渲染,提高内容创作效率,还有的 游戏 工作室专门买这类CPU 游戏 多开,毕竟核心越多,越能承受多个 游戏 同时运行的压力,这是那些普通消费级CPU难以相比的。
有的人可能担心这类CPU的保修问题,确实这类服务器CPU基本都属于二手货,没法考虑保修问题,但是CPU正常使用中就很难损坏,唯一值得担心的反倒是主板,这从一定程度上就要看运气了,不过好歹这类平台的价格都不贵,如果是用个两三年坏了也算是用值了。
说服务器cpu垃圾的都是一些不思进取整天呆在家里打 游戏 的人
不是服务器CPU垃圾,而是人的认知没有到位,觉得对自己用处不大的东西就垃圾,实际上去看看服务器CPU的价格和家用CPU的价格,就知道服务器的CPU到底垃圾不垃圾,当然这里的价格是指一手的价格,不要拿那些洋垃圾的价格来说事情。服务器CPU和家用CPU相比,往往有以下特点,主频低,核心多3,IO性能更强,更注重稳定性。
所以对于普通用户而言,服务器CPU并不是很适合,其中影响最大的还是主频,在桌面处理器已经突破5GHz的情况下,服务器CPU的频率往往还在4GHz徘徊,而且核心数量越多的型号,其频率更低,譬如最新的AMD EPYC系列产品里面,我们可以看到频率最高的是8核16线程的产品,其主频也才4.1GHz,而桌面的8核16线程早就是4.7GHz的水平了,而最高端的EPYC产品,核心数量达到了64核,但是主频最高只有3.675GHz。
而频率对于单线程的性能影响是很关键的,在 游戏 等项目上面,高主频的CPU往往具有更好的性能表现,这也导致了在 游戏 等方面的表现中,服务器CPU往往不如桌面CPU,而这个也是服务器CPU垃圾的主要原因,此外我们以AMD EPYC产品的价格为例,我们可以看到服务器的CPU价格远超桌面的产品,所以更加让人觉得服务CPU垃圾。
不过这些钱并不能说是白花了,服务器CPU在IO部分的表现是可以秒杀桌面处理器的,目前的桌面处理器往往也就是支持双通道内存,而服务器CPU直接支持8通道内存了,此外在PCI-E通道数量上面,服务器CPU的数量也远超普通桌面CPU,可以看到EPYC服务器CPU支持高达128个PCI-E通道,而桌面的往往也就是20条左右。
此外在主板的选择上面,服务器CPU往往也不会有很多选择,而且其考虑的也不是家用环境,所以对于普通玩家而言,其周边的配置往往也不合意,而且价格也往往很贵,这进一步让服务器CPU没有那么香了。
当然如果是洋垃圾的话,成本会便宜很多,整体成本可以做得比家用更低,但是主频低的问题依旧无解,主板的话,这个里面的水就比较深了,二手服务器主板,山寨板,HEDT平台的新主板都有,这也导致了搭配出来的平台良莠不一,出点问题就满天飞,给大家带来不好的印象。
总的来说,服务器CPU在今天对于个人用户早就没有必要了,桌面上面的8核16线程也算是很常见的配置了,16核32线程的产品也有了,已经不是当年最高4核8核心的时代了,服务器CPU早就没有那么香了,如果不是玩家的话,就不要去玩服务器CPU了。
服务器CPU垃圾——洋垃圾。
其实这应该分两方面说
在锐龙出现之前,一直是英特尔霸占着CPU市场,无论是双核、四核普通桌面级,还是六核、八核旗舰级,甚至连十核、十二核的服务器CPU也进入了不少家庭。
而多核心低主频的服务器CPU是从哪里来的,这成了他们洋垃圾称号的起源——新型号的太贵用不起,走进家庭的服务器CPU都是些便宜货,是从淘汰的服务器上扒拉下来的。
这样的CPU不好吗?没有什么不好,主频低、发热高而已,并没有太多缺点,性能来说,多核心给多任务、多线程软件提供了很多便利。
但是,这样的CPU需要搭配相应特殊的主板才可以使用,这才是真正有风险、被说成垃圾的地方。
像X58、X79这种主板,市面上很少买的到大厂产品,毕竟是卖服务器的。想要好主板只能买到拆机板。而这时候,科脑、华南、美可可等品牌的X58X79主板就应运而生了。而其做工、质量,都不可能跟技嘉华硕微星比较,但是售价也不低,四五百一张,而且豪华版的卖八百多。没办法,想用多核撑场面,就得靠这种主板,毕竟是新的,有售后。
随着锐龙一代上市,六核、八核的桌面级CPU才有机会走进千家万户,二代锐龙上市,进一步拉低了六核十二线程、八核十六线程CPU的售价,三代锐龙上市,一代二代锐龙价格更低,八核十六线程才一千多点,而且可以搭配质量过硬的大厂主板,还可以使用最新的技术——RGB、M.2、XFR等。这时E5、E7才算是真正到了尴尬的时候——可玩性不高,就像是一头忠实的老牛,只能低头干活,没有任何趣味,而且主板随时翻车。
这就使原本自嘲的洋垃圾真正变成垃圾了——多核多线程的优势在锐龙面前不堪一击,主频没锐龙高,主板质量差。
虽然如此,这并不能说CPU如何如何,毕竟在英特尔挤牙膏的那些年,E5E7填补了多核多线程的空白,而且错不在CPU在主板。要用发展眼光看待它们,它们只是跟不上这两年的 科技 步伐了。如果手里还用着E5的用户,请善待它们,它们很老了,但是依然勤勤恳恳。如果新用户装机,买新不买旧就是说给你们听的,感受 科技 的魅力吧。
服务器CPU一点儿也不垃圾。
华南X79主板烈焰战神,CPU是 E5-2680V2,32G服务器内存,性能杠杠的!
要是追求单核频率高些,2643V2.很划算,主频3.5G,六核心十二线程。2667v2,2673v2都很好。
玩 游戏 也不差,配个好点儿的显卡就行了。
x99先进些,2678v3很流行,实际体验没多大差异。
主板要用大板,两个或三个显卡插槽。要有m2接口,快很多。四个内存插槽,方便组成双通道。
不 服务区cpu并不垃圾 反而性价比还很高 我做视频剪辑 用的就是工包主板x79加至强E5的服务区CPU还用了ECC服务区内存 价格低 性能好 其实适用才是王道 如果你玩大型 游戏 的话 主频高的普通版本的cpu很适合 但是如果你好做视频 图形图像处理的话 服务器的cpu 你可以考虑一下啊 不会让你失望的
因为这些人基本就是没玩过这类CPU,另一方面主要是支持这类CPU的主板太少,而大部分支持这类CPU的主板都是小厂,其实服务器U类别很多,其中不乏有一些最贴近普通PC的单路U,比方说当年的E3 1230,这些CPU都是核心数不高但是主频还是非常不错的,一般都是用来做高性能工作站使用的,这种一般就是I7类型的服务器版。
还有现在的多路服务器CPU的中高端产品,核心数量都是可以动态调整的,比如说AMD的宵龙,动态调整核心,其玩 游戏 也是非常厉害的。
其实我们很多时候概念还是停留在过去的思想里面里面,其实现在我们的 游戏 已经对多核做过很好地优化了,虽然服务器版的主频很低,但是你会发现 游戏 帧速率并没有拉到多地,这说明服务器版的CPU在 游戏 方面还是可以完全胜任的。
另外很多人喜欢搞服务器CPU主要是因为服务器CPU便宜,U便宜,内存也非常便宜,随便上个64GB的内存也花不了多少钱,最重要的是现在很多经典的服务器CPU也有高主频的,即使在玩 游戏 方面也十分充足。
另外造成一个最大的误解,就是很多人说服务器CPU垃圾,其实真正的原因是你不会选择,有些CPU天生下来就是为了稳定性,比如一些文件服务器用的2450/2650,其核心主频是非常低的,但是核心数多,其主要目的就是为了保证稳定性,你说你要是用这种服务器CPU玩 游戏 那就太难为他们了,因为时钟频率太低了。因为低功耗问题这类服务器CPU阉割了大量的ALU单元,其逻辑运算单元完全无法保证复杂的大量逻辑运算,玩 游戏 当然卡不说帧数还上不去。
你可以淘那些从提供服务器虚拟化那种的CPU,其主频高ALU单元多,虽然在寿命方有损耗但是不影响你玩 游戏 。总之服务器CPU要看你会不会选择,并且有更好的主板支持的话,我觉得在很多方面吊打消费级CPU是没有任何问题的,尤其是性价比方面。
专业专用
有一说一,一个东西设计成什么样的,大家最好就按照什么样的用法来用。
相信很多朋友没买过云服务器,所以我先讲讲怎么玩云服务器。首先你要挑一个看着顺眼的厂商,然后花钱买(其实应该叫租)一定时长的服务器资源,然后厂商就会给你分配一个虚拟机,这个虚拟机就等于是你自己的了,可以随便怎么玩,比如打个小网站、挂个下载器当网盘之类的都可以。而这些厂商会为大量用户提供这种服务,那么大家应该也可以想到,这些厂商使用的服务器CPU应该具有一下特征: 主频低,核心多,可以同时支持大量并发。
但是这些特性,和我们家用用户基本完全没什么关系。一般的 游戏 和应用对多核的优化不是那么完善,多核特性用处不是很大。主频低会导致很多需要单核性能的应用和 游戏 卡顿。综合起来,你说使用体验能好吗?
英特尔挤牙膏很多人用服务器CPU的很大一个原因,其实是因为当年英特尔没啥对手,家用CPU性价比不高。当年我混迹显卡吧的时候,看到很多人装机用的都是服务器的那款E3V2, 当时的家用酷睿系列的处理器价格高,但是单核性能对比服务器CPU来说拉不开差距,结果就是性价比被完爆。
不过这种情况现在应该是不存在了,AMD自从出了锐龙系列处理器,英特尔有了竞争对手,再也不敢挤牙膏了。所以现在这个时段,家用装机,正常挑选一款家用CPU就可以了,没必要在迷信当年的经验去用服务器CPU。如果你还要头硬去用的话,很可能会因为主频低,运行 游戏 卡,而发出类似本问题的抱怨: “为什么服务器CPU这么垃圾”
3. 如何使用OpenStack,Docker和Spark打造一个云服务
蘑菇街基于 OpenStack 和 Docker 的私有云实践
本次主要想分享一下过去一年时间里,我们在建设基于Docker的私有云实践过程中,曾经遇到过的问题,如何解决的经验,还有我们的体会和思考,与大家共勉。
在生产环境中使用Docker有一些经历和经验。私有云项目是2014年圣诞节期间上线的,从无到有,经过了半年多的发展,经历了3次大促,已经逐渐形成了一定的规模。
架构
集群管理
大家知道,Docker自身的集群管理能力在当时条件下还很不成熟,因此我们没有选择刚出现的 Swarm,而是用了业界最成熟的OpenStack,这样能同时管理Docker和KVM。我们把Docker当成虚拟机来跑,是为了能满足业务上对虚拟化的需求。今后的思路是微服务化,把应用进行拆分,变成一个个微服务,实现PaaS基于应用的部署和发布。
通过OpenStack如何管理Docker?我们采用的是OpenStack+nova-docker+Docker的架构模式。nova- docker是StackForge上一个开源项目,它做为nova的一个插件,通过调用Docker的RESTful接口来控制容器的启停等动作。
我们在IaaS基础上自研了编排调度等组件,支持应用的弹性伸缩、灰度升级等功能,并支持一定的调度策略,从而实现了PaaS层的主要功能。
同时,基于Docker和Jenkins实现了持续集成(CI)。Git中的项目如果发生了git push等动作,便会触发Jenkins Job进行自动构建,如果构建成功便会生成Docker Image并push到镜像仓库。基于CI生成的Docker Image,可以通过PaaS的API或界面,进行开发测试环境的实例更新,并最终进行生产环境的实例更新,从而实现持续集成和持续交付。
网络和存储
网络方面,我们没有采用Docker默认提供的NAT网络模式,NAT会造成一定的性能损失。通过OpenStack,我们支持Linux bridge和Open vSwitch,不需要启动iptables,Docker的性能接近物理机的95%。
容器的监控
监控方面,我们自研了container tools,实现了容器load值的计算,替换了原有的top、free、iostat、uptime等命令。这样业务方在容器内使用常用命令时看到的是容器的值,而不是整个物理机的。目前我们正在移植Lxcfs到我们的平台上。
我们还在宿主机上增加了多个阈值监控和报警,比如关键进程监控、日志监控、实时pid数量、网络连接跟踪数、容器oom报警等等。
冗灾和隔离性
冗灾和隔离性方面,我们做了大量的冗灾预案和技术准备。我们能够在不启动docker daemon的情况下,离线恢复Docker中的数据。同时,我们支持Docker的跨物理机冷迁移,支持动态的CPU扩容/缩容,网络IO磁盘IO的限速。
遇到的问题及解决方法
接近一年不到的产品化和实际使用中我们遇到过各种的问题,使用Docker的过程也是不断优化Docker、不断定位问题、解决问题的过程。
我们现在的生产环境用的是CentOS 6.5。曾经有个业务方误以为他用的Docker容器是物理机,在Docker容器里面又装了一个Docker,瞬间导致内核crash,影响了同一台物理机的其他Docker容器。
经过事后分析是2.6.32-431版本的内核对network namespace支持不好引起的,在Docker内创建bridge会导致内核crash。upstream修复了这个bug,从2.6.32-431升级到2.6.32-504后问题解决。
还有一个用户写的程序有bug,创建的线程没有及时回收,容器中产生了大量的线程,最后在宿主机上都无法执行命令或者ssh登陆,报的错是"bash: fork: Cannot allocate memory",但通过free看空闲的内存却是足够的。
经过分析,发现是内核对pid的隔离性支持不完善,pid_max(/proc/sys/kernel/pid_max)是全局共享的。当一个容器中的pid数目达到上限32768,会导致宿主机和其他容器无法创建新的进程。最新的4.3-rc1才支持对每个容器进行pid_max限制。
我们还观察到docker的宿主机内核日志中会产生乱序的问题。经过分析后发现是由于内核中只有一个log_buf缓冲区,所有printk打印的日志先放到这个缓冲区中,docker host以及container上的rsyslogd都会通过syslog从kernel的log_buf缓冲区中取日志,导致日志混乱。通过修改 container里的rsyslog配置,只让宿主机去读kernel日志,就能解决这个问题。
除此之外,我们还解决了device mapper的dm-thin discard导致内核crash等问题。
体会和思考
最后分享一下我们的体会和思考,相比KVM比较成熟的虚拟化技术,容器目前还有很多不完善的地方,除了集群管理、网络和存储,最重要的还是稳定性。影响稳定性的主要还是隔离性的不完善造成的,一个容器内引起的问题可能会影响整个系统。
容器的memcg无法回收slab cache,也不对dirty cache量进行限制,更容易发生OOM问题。还有,procfs上的一些文件接口还无法做到per-container,比如pid_max。
另外一点是对容器下的运维手段和运维经验的冲击。有些系统维护工具,比如ss,free,df等在容器中无法使用了,或者使用的结果跟物理机不一致,因为系统维护工具一般都会访问procfs下的文件,而这些工具或是需要改造,或是需要进行适配。
虽然容器还不完善,但是我们还是十分坚定的看好容器未来的发展。Kubernetes、Mesos、Hyper、CRIU、runC等容器相关的开源软件,都是我们关注的重点。
Q&A
Q:请问容器间的负载均衡是如何做的?
A: 容器间的负载均衡,更多是PaaS和SaaS层面的。我们的P层支持4层和7层的动态路由,通过域名的方式,或者名字服务来暴露出对外的接口。我们能够做到基于容器的灰度升级,和弹性伸缩。
Q:请问你们的OpenStack是运行在CentOS 6.5上的吗?
A: 是的,但是我们针对OpenStack和Docker依赖的包进行了升级。我们维护了内部的yum源。
Q:请问容器IP是静态编排还是动态获取的?
A: 这个跟运维所管理的网络模式有关,我们内部的网络没有DHCP服务,因此对于IaaS层,容器的IP是静态分配的。对于PaaS层来说,如果有DHCP服务,容器的App所暴露出来IP和端口就可以做到动态的。
Q:请问你们当时部署的时候有没有尝试过用Ubuntu,有没有研究过两个系统间的区别,另外请问你们在OpenStack上是怎样对这些虚拟机监控的?
A: 我们没有尝试过Ubuntu,因为公司生产环境上用的是CentOS。我们的中间件团队负责公司机器的监控,我们和监控团队配合,将监控的agent程序部署到宿主机和每个容器里,这样就可以当成虚拟机来进行监控。
当然,容器的数据是需要从cgroups里来取,这部分提取数据的工作,是我们来实现的。
Q:容器间的网络选型有什么建议,据说采用虚拟网卡比物理网卡有不小的性能损失,Docker自带的weaves和ovs能胜任吗?
A: 容器的网络不建议用默认的NAT方式,因为NAT会造成一定的性能损失。之前我的分享中提到过,不需要启动iptables,Docker的性能接近物理机的95%。Docker的weaves底层应该还是采用了网桥或者Open vSwitch。建议可以看一下nova-docker的源码,这样会比较容易理解。
Q:静态IP通过LXC实现的吗?
A: 静态IP的实现是在nova-docker的novadocker/virt/docker/vifs.py中实现的。实现的原理就是通过ip命令添加 veth pair,然后用ip link set/ip netns exec等一系列命令来实现的,设置的原理和weaves类似。
Q:容器内的进程gdb你们怎么弄的,把gdb打包到容器内吗?
A: 容器内的gdb不会有问题的,可以直接yum install gdb。
Q:共享存储能直接mount到容器里吗?
A: 虽然没试过,但这个通过docker -v的方式应该没什么问题。
Q:不启动Docker Daemon的情况下,离线恢复Docker中的数据是咋做到的?
A: 离线恢复的原理是用dmsetup create命令创建一个临时的dm设备,映射到Docker实例所用的dm设备号,通过mount这个临时设备,就可以恢复出原来的数据。
Q:Docker的跨物理机冷迁移,支持动态的CPU扩容/缩容,网络IO磁盘IO的限速,是怎么实现的,能具体说说吗?
A:Docker的冷迁移是通过修改nova-docker,来实现OpenStack迁移的接口,具体来说,就是在两台物理机间通过docker commit,docker push到内部的registry,然后docker pull snapshot来完成的。
动态的CPU扩容/缩容,网络IO磁盘IO的限速主要是通过novadocker来修改cgroups中的cpuset、iops、bps还有TC的参数来实现的。
Q:请问你们未来会不会考虑使用Magnum项目,还是会选择Swarm?
A:这些都是我们备选的方案,可能会考虑Swarm。因为Magnum底层还是调用了Kubernetes这样的集群管理方案,与其用Magnum,不如直接选择Swarm或者是Kubernetes。当然,这只是我个人的看法。
Q:你们的业务是基于同一个镜像么,如果是不同的镜像,那么计算节点如何保证容器能够快速启动?
A:运维会维护一套统一的基础镜像。其他业务的镜像会基于这个镜像来制作。我们在初始化计算节点的时候就会通过docker pull把基础镜像拉到本地,这也是很多公司通用的做法,据我了解,腾讯、360都是类似的做法。
Q:做热迁移,有没有考虑继续使用传统共享存储的来做?
A: 分布式存储和共享存储都在考虑范围内,我们下一步,就计划做容器的热迁移。
Q:请问你们是直接将公网IP绑定到容器吗,还是通过其他方式映射到容器的私有IP,如果是映射如何解决原本二层的VLAN隔离?
A:因为我们是私有云,不涉及floating ip的问题,所以你可以认为是公网IP。VLAN的二层隔离完全可以在交换机上作。我们用Open vSwitch划分不同的VLAN,就实现了Docker容器和物理机的网络隔离。
Q:Device mapper dm-thin discard问题能说的详细些吗?
A:4月份的时候,有两台宿主机经常无故重启。首先想到的是查看/var/log/messages日志,但是在重启时间点附近没有找到与重启相关的信息。而后在/var/crash目录下,找到了内核crash的日志vmcore-dmesg.txt。日志的生成时间与宿主机重启时间一致,可以说明宿主机是发生了kernel crash然后导致的自动重启。“kernel BUG at drivers/md/persistent-data/dm-btree-remove.c:181!”。 从堆栈可以看出在做dm-thin的discard操作(process prepared discard),虽然不知道引起bug的根本原因,但是直接原因是discard操作引发的,可以关闭discard support来规避。
我们将所有的宿主机配置都禁用discard功能后,再没有出现过同样的问题。
在今年CNUTCon的大会上,腾讯和大众点评在分享他们使用Docker的时候也提到了这个crash,他们的解决方法和我们完全一样。
Q:阈值监控和告警那块,有高中低多种级别的告警吗,如果当前出现低级告警,是否会采取一些限制用户接入或者砍掉当前用户正在使用的业务,还是任由事态发展?
A:告警这块,运维有专门的PE负责线上业务的稳定性。当出现告警时,业务方和PE会同时收到告警信息。如果是影响单个虚拟机的,PE会告知业务方,如果严重的,甚至可以及时下掉业务。我们会和PE合作,让业务方及时将业务迁移走。
Q:你们自研的container tools有没有开源,GitHub上有没有你们的代码,如何还没开源,后期有望开源吗,关于监控容器的细粒度,你们是如何考虑的?
A:虽然我们目前还没有开源,单我觉得开源出来的是完全没问题的,请大家等我们的好消息。关于监控容器的细粒度,主要想法是在宿主机层面来监控容器的健康状态,而容器内部的监控,是由业务方来做的。
Q:请问容器的layer有关心过层数么,底层的文件系统是ext4么,有优化策略么?
A:当然有关心,我们通过合并镜像层次来优化docker pull镜像的时间。在docker pull时,每一层校验的耗时很长,通过减小层数,不仅大小变小,docker pull时间也大幅缩短。
Q:容器的memcg无法回收slab cache,也不对dirty cache量进行限制,更容易发生OOM问题。----这个缓存问题你们是怎么处理的?
A:我们根据实际的经验值,把一部分的cache当做used内存来计算,尽量逼近真实的使用值。另外针对容器,内存报警阈值适当调低。同时添加容器OOM的告警。如果升级到CentOS 7,还可以配置kmem.limit_in_bytes来做一定的限制。
Q:能详细介绍下你们容器网络的隔离?
A:访问隔离,目前二层隔离我们主要用VLAN,后面也会考虑VXLAN做隔离。 网络流控,我们是就是使用OVS自带的基于port的QoS,底层用的还是TC,后面还会考虑基于flow的流控。
Q:请问你们这一套都是用的CentOS 6.5吗,这样技术的实现。是运维还是开发参与的多?
A:生产环境上稳定性是第一位的。CentOS 6.5主要是运维负责全公司的统一维护。我们会给运维在大版本升级时提建议。同时做好虚拟化本身的稳定性工作。
Q:请问容器和容器直接是怎么通信的?网络怎么设置?
A:你是指同一台物理机上的吗?我们目前还是通过IP方式来进行通信。具体的网络可以采用网桥模式,或者VLAN模式。我们用Open vSwitch支持VLAN模式,可以做到容器间的隔离或者通信。
Q:你们是使用nova-api的方式集成Dcoker吗,Docker的高级特性是否可以使用,如docker-api,另外为什么不使用Heat集成Docker?
A:我们是用nova-docker这个开源软件实现的,nova-docker是StackForge上一个开源项目,它做为nova的一个插件,替换了已有的libvirt,通过调用Docker的RESTful接口来控制容器的启停等动作。
使用Heat还是NOVA来集成Docker业界确实一直存在争议的,我们更多的是考虑我们自身想解决的问题。Heat本身依赖的关系较为复杂,其实业界用的也并不多,否则社区就不会推出Magnum了。
Q:目前你们有没有容器跨DC的实践或类似的方向?
A:我们已经在多个机房部署了多套集群,每个机房有一套独立的集群,在此之上,我们开发了自己的管理平台,能够实现对多集群的统一管理。同时,我们搭建了Docker Registry V1,内部准备升级到Docker Registry V2,能够实现Docker镜像的跨DC mirror功能。
Q:我现在也在推进Docker的持续集成与集群管理,但发现容器多了管理也是个问题,比如容器的弹性管理与资源监控,Kubernetes、Mesos哪个比较好一些,如果用在业务上,那对外的域名解析如何做呢,因为都是通过宿主机来通信,而它只有一个对外IP?
A: 对于Kubernetes和Mesos我们还在预研阶段,我们目前的P层调度是自研的,我们是通过etcd来维护实例的状态,端口等信息。对于7层的可以通过Nginx来解析,对于4层,需要依赖于naming服务。我们内部有自研的naming服务,因此我们可以解决这些问题。对外虽然只有一个IP,但是暴露的端口是不同的。
Q:你们有考虑使用Hyper Hypernetes吗? 实现容器与宿主机内核隔离同时保证启动速度?
A:Hyper我们一直在关注,Hyper是个很不错的想法,未来也不排除会使用Hyper。其实我们最希望Hyper实现的是热迁移,这是目前Docker还做不到的。
Q:你们宿主机一般用的什么配置?独立主机还是云服务器?
A:我们有自己的机房,用的是独立的服务器,物理机。
Q:容器跨host通信使用哪一种解决方案?
A: 容器跨host就必须使用3层来通信,也就是IP,容器可以有独立的IP,或者宿主机IP+端口映射的方式来实现。我们目前用的比较多的还是独立ip的方式,易于管理。
Q:感觉贵公司对Docker的使用比较像虚拟机,为什么不直接考虑从容器的角度来使用,是历史原因么?
A:我们首先考虑的是用户的接受程度和改造的成本。从用户的角度来说,他并不关心业务是跑在容器里,还是虚拟机里,他更关心的是应用的部署效率,对应用本身的稳定性和性能的影响。从容器的角度,一些业务方已有的应用可能需要比较大的改造。比如日志系统,全链路监控等等。当然,最主要的是对已有运维系统的冲击会比较大。容器的管理对运维来说是个挑战,运维的接受是需要一个过程的。
当然,把Docker当成容器来封装应用,来实现PaaS的部署和动态调度,这是我们的目标,事实上我们也在往这个方向努力。这个也需要业务方把应用进行拆分,实现微服务化,这个需要一个过程。
Q:其实我们也想用容器当虚拟机使用。你们用虚拟机跑什么中间件?我们想解决测试关键对大量相对独立环境WebLogic的矛盾?
A:我们跑的业务有很多,从前台的主站Web,到后端的中间件服务。我们的中间件服务是另外团队自研的产品,实现前后台业务逻辑的分离。
Q:贵公司用OpenStack同时管理Docker和KVM是否有自己开发Web配置界面,还是单纯用API管理?
A:我们有自研的Web管理平台,我们希望通过一个平台管理多个集群,并且对接运维、日志、监控等系统,对外暴露统一的API接口。
Q:上面分享的一个案例中,关于2.6内核namespace的bug,这个低版本的内核可以安装Docker环境吗,Docker目前对procfs的隔离还不完善,你们开发的container tools是基于应用层的还是需要修改内核?
A:安装和使用应该没问题,但如果上生产环境,是需要全面的考虑的,主要还是稳定性和隔离性不够,低版本的内核更容易造成系统 crash或者各种严重的问题,有些其实不是bug,而是功能不完善,比如容器内创建网桥会导致crash,就是network namespace内核支持不完善引起的。
我们开发的container tools是基于应用的,不需要修改内核。
Q:关于冗灾方面有没有更详细的介绍,比如离线状态如何实现数据恢复的?
A:离线状态如何实现恢复数据,这个我在之前已经回答过了,具体来说,是用dmsetup create命令创建一个临时的dm设备,映射到docker实例所用的dm设备号,通过mount这个临时设备,就可以恢复出原来的数据。其他的冗灾方案,因为内容比较多,可以再另外组织一次分享了。你可以关注一下http://mogu.io/,到时候我们会分享出来。
Q:贵公司目前线上容器化的系统,无状态为主还是有状态为主,在场景选择上有什么考虑或难点?
A:互联网公司的应用主要是以无状态的为主。有状态的业务其实从业务层面也可以改造成部分有状态,或者完全不状态的应用。不太明白你说的场景选择,但我们尽量满足业务方的各种需求。
对于一些本身对稳定性要求很高,或对时延IO特别敏感,比如redis业务,无法做到完全隔离或者无状态的,我们不建议他们用容器。
多进程好还是多线程好等等,并不是说因为Spark很火就一定要使用它。在遇到这些问题的时候、图计算,目前我们还在继续这方面的工作:作为当前流行的大数据处理技术? 陈,它能快速创建一个Spark集群供大家使用,我们使用OpenStack? 陈。 问,Hadoop软硬件协同优化,在OpenPOWER架构的服务器上做Spark的性能分析与优化:您在本次演讲中将分享哪些话题。 问。多参与Spark社区的讨论。曾在《程序员》杂志分享过多篇分布式计算、Docker和Spark打造SuperVessel大数据公有云”,给upstrEAM贡献代码都是很好的切入方式、SQL,并拥有八项大数据领域的技术专利,MapRece性能分析与调优工具。例如还有很多公司在用Impala做数据分析:企业想要拥抱Spark技术,对Swift对象存储的性能优化等等。例如与Docker Container更好的集成,大数据云方向的技术负责人,Spark还是有很多工作可以做的?企业如果想快速应用Spark 应该如何去做,具体的技术选型应该根据自己的业务场景,Docker Container因为在提升云的资源利用率和生产效率方面的优势而备受瞩目,高性能FPGA加速器在大数据平台上应用等项目,再去调整相关的参数去优化这些性能瓶颈,一些公司在用Storm和Samaza做流计算: 相比于MapRece在性能上得到了很大提升?
4. 华为rh2288hv2服务器怎么做系统
华为服务器RH2288H V2有三种常见的方式可以做系统,它们分别是:
1、用ServiceCD的方式安装;
2、用光盘或ISO镜像文件进行安装;
3、在加载硬盘控制器驱动的过程中完成OS安装。
本文将介绍如何用光盘/ISO镜像文件直接为华为服务器RH2288H V2做系统,步骤如下:
一、获取OS安装相关材料;
二、设置BIOS参数;
三、为华为Tecal服务器配置硬盘RAID关系;
四、通过光盘或镜像文件直接安装服务区OS;
五、登录服务器远程控制界面,加载光盘或镜像文件:
①若使用光盘进行安装,应将OS安装光盘放置到服务器物理光驱中,执行6;
②若使用ISO镜像文件,执行2.
六、在服务器
Remote Countrol命令窗口工具栏,单机光盘,将会弹出虚拟光驱对话框,在框中点选‘镜像文件’并单击“浏览”,将会弹开新对话框。在框中选
择OS的ISO镜像文件后,单击“打开”。在虚拟光驱对话框中,单击“连接”,等待,直到“连接”状态变为“断开”,此时表示虚拟光驱已成功连到华为服务
器RH2288H V2。
七、重启华为服务器RH2288H V2。
在服务器启动过程中,在屏幕下方出现“F11”相关英文提示以后,及时按键盘“F11”,进入‘Boot Manager’界面。在‘启动方式’选项上选
择‘界面’,接着选择‘从光驱启动’。示例:“HUAWEI DVD-ROM VM 1.1.0”,最后,按‘Enter’键进入华为服务器RH2288H V2操作系统引导界面。
八、在‘Welcome’界面进行三步设置:
①在‘Language’语言选择区域,建议设置为‘English(US)’;
②在‘Keyboard Layout’键盘模式区域,建议设置为‘English(US)’;
③在‘License Agreement’允许权限区域,选择设置‘I Agree to the License Terms’。
九、按照实际需求增加/删除软件,完成后单击‘OK’,为避免以后出现一些特殊同类型的网卡不能再华为服务器RH2288H V2上使用,建议勾选‘C/C++ Compiler and Tools’。
十、按照向导提示
更换光盘,完成基础安装,之后重启系统,进入‘Password for the System Administrator “root” ’界面,设
置root用户密码,牢记并备份!接着单击‘Next’,之后打开‘Hostname and Domain Name’设置华为服务器RH2288H V2的主机名及域名。
十一、采用‘缺省’(默认)配置,单击‘Next’,打开‘Test internet Connection’界面,测试服务器连接英特网的情况,若畅通,则至此完成了华为服务器RH2288H V2系统的安装。
参考资料:http://www.dongjiusoft.com/news_info.php?id=681(华为服务器RH2288H V2如何装系统?)
5. 云服务器怎么搭建v2节点
1、首先,云服务器使首配用Xshell 6工具远程登陆服务器。
2、者敬指其次,关闭firewall;systemctlstopfirewalld.servicesystemctldisable firewalld。
3、最后,下载云服务器安装v2ray脚本,即可完成云服务器搭建v2节点稿悔的操作。
6. v2云怎么用
首先第一步,需要进入到v2rayn的官网,然后找到最新版的zip压缩包,找到之后点击将它下载下来,点击下载好安装包之后,使用电脑上的压缩软件解压下载的压缩包,然后找到其中的exe程序,使用鼠标双击之后即可运行程序。
程序运行之后在桌面的状态栏中就可以看到一个红色的图标了,如下图中所示,表示软件已经处于运行状态,之后点击这个红色的图标,进入到软件的主界面,然后需要在主界面左上角点击服务器按钮,在出现的选项中选择自己想要使用的方式添加节点,比较常用的是“添加VMess服务器”,点击这个添加选项之后等待添加完成,然后在界面中右键点击任务栏红色的图标,在出现的选项中点击“启用Http代理”这个选项就可以进行使用了。