A. ·现在最新的服务器组技术是什么样的,性能和3年前的比起来有多大差别呀
刀片服务器专题分享
认识刀片服务器
刀片服务器是一种HAHD(High AvaiMabiMity High Density,高可用高密度)的低成本服务器平台,是为特殊应用行业和高密度计算机环境专门设计的。刀片服务器是将传统的架式服务器的所有功能集中在一块高度压缩的电路板中,然后再插入到机箱中。
从根本上来说,刀片服务器就是一个卡上的服务器:一个单独的主板上包含一个完整的计算机系统,包括处理器、内存、网络连接和相关的电子器件。如果将多个刀片服务器插入一个机架或机柜的平面中,那么该机架或机柜的基础设施就能够共用,同时具有冗余特性。
每一块“刀片”实际上就是一块系统主板,每块主板通过本地硬盘运行自己的操作系统,类似一个个独立的服务器。使用管理软件,可以将这些主板集合成一个服务器集群。在集群模式下,所有的主板可以连接起来提供高速的网络环境,可以共享资源,为不同的用户群服务。刀片服务器公认的优点有两个,一是克服了芯片服务器集群的缺点,另一个是实现了机柜优化。
根据所需要承担的服务器功能,刀片服务器被分成服务器刀片、网络刀片、存储刀片、管理刀片、光纤通道SAN刀片、扩展I/O刀片等等不同功能的相应刀片服务器。下面举几个类型刀片来说明:
网络刀片
网络刀片的功能相当于局域网交换机。普遍提供10/100Mbps端口,以双绞线的方式连接服务器刀片,对外提供高速上连通道(千兆端口)。采用NAS存储方式的刀片服务器经常会配备2个网络刀片,其中一个专门用于连接NAS设备。每个刀片支持10/100/1000M以太网连接,并且可以在背板上安装10/100/1000M的2-4层交换机,这样就可以把系统中每个槽位上安装的刀片与交换机连接起来,提供一个基于IP的交换网络。
存储刀片
存储刀片可以被视为一个硬盘模块,通过背板总线或者硬盘接口线向服务器刀片提供存储功能。存储刀片上一般配备2块性能较高90mm(3.5英寸)硬盘,接口类型有IDE、SCSI和光纤通道(Fiber Channel)接口。
管理刀片
第一代刀片服务器的KVM(Keyboard、VGA、Mouse)刀片可以说是功能最为简单的管理刀片,提供对所有服务器刀片的管理控制。 KVM刀片,提供键盘、鼠标、显示器接口,KVM刀片经常还包括软驱和光驱,便于使用者直接操作服务器刀片。KVM刀片上提供切换开关,用于在机柜上的不同刀片之间或者不同机柜之间进行切换。第二代刀片服务器具备更加强大的管理功能,但是各家产品各不相同。
刀片服务器的发展趋势必然是从单纯的“服务器整合”发展到可以集成企业的存储、网络以及交换设备的核心构件。同时,由于多台分散服务器的管理将集中到一台刀片服务器的管理,因此也会大大降低IT管理的人员成本。通过进行基础设施简化,计算系统的多个层次(服务器、存储、网络等)可以被压缩为更高效、更简单的基础设施,这一过程当然需要大型机、刀片服务器和网格技术的突破。
刀片产品目前采用的已经是冗余的矢量式冷却系统,而在未来将有采用更为先进的室状蒸汽散热水槽、弯曲叶轮散热风扇(配有百叶窗回流挡片)、温度传感器和管理模块的散热系统等先进技术。
在未来的几年,随着刀片服务器的标准统一后,刀片服务器的任意刀片选件应当都可以安装到同一个机箱中,而不论它是基于Intel平台运行 Linux的刀片,或者是基于PA-RISC平台运行HP-UX的刀片,还是基于PowerPC平台运行AIX的刀片,以及其他的刀片产品。
刀片服务器的前世今生(一)
CNET科技资讯网12月28日台北报道(文/ 颜国伟)刀片服务器(blade server)这几年成为IT界的的热门话题,对服务器市场而言,刀片服务器还只是一个新兴次市场,或许许多读者们还不熟悉,或许读完本篇后知道发展沿革,也有助于为贵公司明年IT采购下决定。
任何一项IT技术都不会是凭空冒出来;而是一个演化的成果,而每个演化的成果,都有历史脉络贯穿其中。刀片服务器也不例外。我把这段演变历史粗分成三大时期,并分阶段分别阐述之。
史前期:从Host(主机)到Server(服务器)
Server一词的出现,是在Client/Server 架构出现时才有,而这又需LAN 出现的时代背景下诞生。LAN 约在80年代中期开始,美国80年代末开始热兴,台湾约到90年代初或中才开始。而Server也约在90年代初开始,更早的机房电脑称为Host(主机),如60年代的Mainframe 大型主机、70年代的Minicomputer迷你电脑等。
90年代的主流Server主要有三:UNIX Server 、NT Server 、NetWare Server,之后NetWare 逐渐淡出,成为今日常见的二者。
单功能Server Appliance奠定基础
而Server初期必然昂贵,因此企业购买了Server后,都尽可能地压榨其性能,一部Server因此经常肩负多种工作,既是File Server ,也是Print Server,或加上Mail Server 、Web Server,以及其他小功能性的DHCP Server 、DNS Server等。
不过,到了90年代后期,Pentium CPU 价格性能比高,以及Linux 逐渐成熟,使企业开始思考:Server还需要一机多用吗?
事实上一机多用也有许多副作用,过去经常发生:Server当机了,但不知是执行哪套软件所产生的问题,抓错除错相当困难。其次是:某一服务负荷加重,也影响了其他服务的效率,例如今天Mail收发多一点,Print 就变慢了,或者Web 也变慢了,各服务共挤一机,导致服务效率无法保证。
因此Cobalt Networks 公司于1998年提出了Qube及RaQ ,以低廉的x86 架构搭配高效的Linux 操作系统,开始了简化、单一化、限定用途的服务器设计,一部服务器只负责单一种工作,或少量的工作,或限定范畴且经过稳定测试、性能测试的工作,不允许更多的额外变化安装,同时将过去被人认为Server难安装、难设定、难管理等事务将以简化,类似将专业相机转化成傻瓜相机,大幅降低资管人员的工作负担,此即称为Server Appliance(精简服务器、或伺服应用机)。
进一步说明RaQ ,RaQ 是一部1U机架高度的Server Appliance,专门只执行Web Hosting (网站代管)的工作,一部RaQ 可设定与执行200 个以上的Web Hosting.这些其实都是刀片服务器概念诞生前的初期启发效用。
第一阶段:Web Hosting
达康时代,促使Web hosting 的业务大幅增长,进而带动容易安装,体积小的服务器的需求。而也在这个时代,诞生了第一台刀片服务器。
2000年,由于全球(尤其美国)Web Hosting 业务持续增长,客户也逐渐无法满足于Web Hosting 的简单网站功用,因此ISP/IDC 企业只好提出Dedicated Web Hosting (简称DHS )服务,过去是200 个客户的网站共用一部Server,之后变成一个客户网站一部,而机房空间有限,如何让每个客户都有一部独立的Web Server,只好将Server的外型体积尽可能缩小,使的过去至少6U、7U高度的Server,纷纷降至 1U、2U的水准。这时,Web Hosting 的用途更进一步向Dedicated Web Hosting 演变。
不过1U、2U依然不够,ISP/ICP 面对持续暴增的DHS 申请,需要在原有机房与机柜上能装入更多的Server,如此2001年由COMPAQ转投资的 RLX 公司提出了Server Blade,将每个Server的体积更加缩小,约等同于一张界面卡大小,然后将Server Card 插置到符合机架尺寸的机座(Chassis )中运作,这样的模组设计其实已经在电信机房的设备或工控自动化的电脑(称为单板电脑,Single Board Computer )等领域中采用,刀片服务器只是将相同概念移植到ISP/IDC 的机房中。
以最早发布的RLX Server Blade而言,一个刀片机座为3U高度,可以插置24片刀片服务器,每一片就是一部独立Server,一片Server就是一个公司机构的Web Server,如此ISP/IDC 便能提供比1U、2U更高密度的DHS.以3U为例,置放1U Server (称为超薄服务器,Ultra Slim Server)只能放3 部,但换成刀片服务器便可放24部,多出7 倍数目,同样的机房空间可以多承接7 倍的客户业务。
降低硬件规范无碍于整体服务效果
当然!从1U降至1/24U 也不是没有牺牲的,1U Server 可以装置1 ~2 颗CPU 、2 ~3 颗3.5 寸硬盘、及1 ~2 张界面卡,但1/24U 的刀片服务器只能装1 颗CPU 、1 颗2.5 寸硬盘、0 张界面卡。硬件规范与扩充接大为降低,然而这却对整体服务无有阻碍,因为Web 服务的性能症结几乎都在公众的互联网上,即便Server硬件规范大减依然不会有太大影响,这是刀片服务器之所以能牺牲硬件规范而换取更高容纳密度的主要原因。
经济、开放,好管理的精神
所以,刀片服务器在执行理念上取自Server Appliance,在构型(Form Factor)取向上取自Single Board Computer ,并在初期专注于 Web Hosting 服务,而刀片服务器的提出正是为了省空间、省成本,因此几乎都是使用开放授权的操作系统,如BSD 、Linux 等,而非授权费较高的商用操作系统,此就是刀片服务器最初的面貌组合
网络时代为服务器的应用提供了广阔的空间。服务器因此进入了技术、应用和市场互动并迅速发展的新阶段。服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。对于企业和网络信息提供商来说,无限增长的数据必须集中存储和处理,于是未来的网络发展呈现出集中计算的趋势。集中管理模式对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务,成为对下一代服务器的新要求。刀片服务器(Blade Server )由此应运而生。
刀片服务器是将传统的架式服务器的所有功能集中在一块高度压缩的电路板中,然后再插入到机箱中。从根本上来说,刀片服务器就是一个卡上的服务器:一个单独的主板上包含一个完整的计算机系统,包括处理器、内存、网络连接和相关的电子器件。如果将多个刀片服务器插入一个机架或机柜的平面中,那么该机架或机柜的基础设施就能够共用,同时具有冗余特性。刀片服务器公认的优点有两个,一是克服了芯片服务器集群的缺点,另一个是实现了机柜优化。
那么企业选择刀片服务器主要考虑下面几个理由:
1、降低硬件成本
与传统的服务器不同的是,每个刀片服务器不需要单独的机架和基础设施,因此刀片服务器相对廉价。通过多个系统共用电源、冷却设备、管理硬件和布线系统,可以极大地降低每个服务器的成本。
2、简化部署和维修
部署多个服务器是一个耗时和资源密集的过程。管理员需要将每个服务器安装在机架中,进行电源和网络布线,并为其安装软件。在高密度的环境下,布线尤其是部署中令人头疼的难题之一。利用刀片服务器,管理员只需要对机架进行安装和布线,单独的刀片服务器无需布线。增加新的计算机资源只需插入一个或多个新刀片服务器,就像现在加入一个硬盘驱动器一样简单。由于多个刀片服务器可以共用冗余电源,因此最大限度地减少了机架布线。此外,内置的转换器将以太网数据和管理网络、甚至KVM连接集成在一起。
利用自动软件供应工具,管理员只需通过一个网络操作,就能够方便、快捷地将软件安装到一个或多个刀片服务器中。在完成刀片服务器的软件安装之后,管理员就能够利用远程管理工具进行全面的管理。
3、最大限度地利用数据中心的空间
对于寸土寸金的数据中心来说,根据设计和供应商的不同,刀片服务器能够使服务器的密度比目前1U的机架优化的系统增加100%到800%。
4、减少功率消耗
为了减少刀片服务器的功率消耗,大多数供应商将在有些刀片服务器中采用低功率的处理器。即便刀片服务器不使用低功率的处理器,其功耗也少于“综合”服务器,因为刀片服务器的功耗部件较少。此外,供应商也能够承担得起使用高效率电源的费用,因为电源将由多个服务器共用。另外,由于刀片服务器的功耗较低,也就产生较少的热量,因而也就减少了冷却系统的耗电量。
目前,作为服务器领域的新星,这种高密度的刀片服务器所带来的市场前景已经被国外IBM、HP、SUN和DELL等厂商所看重,他们纷纷宣布推出自己的刀片服务器。国内曙光、联想、浪潮等公司也推出他们相应的产品,由于刀片服务器的整体表现性能更强,因此在2004年中,刀片服务器将受到更多企业用户的青睐。下面还是让我们来看一看国产的刀片服务器产品。
网络时代为服务器的应用提供了广阔的空间。服务器因此进入了技术、应用和市场互动并迅速发展的新阶段。服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。对于企业和网络信息提供商来说,无限增长的数据必须集中存储和处理,于是未来的网络发展呈现出集中计算的趋势。集中管理模式对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务,成为对下一代服务器的新要求。刀片服务器(Blade Server )由此应运而生。
刀片服务器是将传统的架式服务器的所有功能集中在一块高度压缩的电路板中,然后再插入到机箱中。从根本上来说,刀片服务器就是一个卡上的服务器:一个单独的主板上包含一个完整的计算机系统,包括处理器、内存、网络连接和相关的电子器件。如果将多个刀片服务器插入一个机架或机柜的平面中,那么该机架或机柜的基础设施就能够共用,同时具有冗余特性。刀片服务器公认的优点有两个,一是克服了芯片服务器集群的缺点,另一个是实现了机柜优化。
那么企业选择刀片服务器主要考虑下面几个理由:
1、降低硬件成本
与传统的服务器不同的是,每个刀片服务器不需要单独的机架和基础设施,因此刀片服务器相对廉价。通过多个系统共用电源、冷却设备、管理硬件和布线系统,可以极大地降低每个服务器的成本。
2、简化部署和维修
部署多个服务器是一个耗时和资源密集的过程。管理员需要将每个服务器安装在机架中,进行电源和网络布线,并为其安装软件。在高密度的环境下,布线尤其是部署中令人头疼的难题之一。利用刀片服务器,管理员只需要对机架进行安装和布线,单独的刀片服务器无需布线。增加新的计算机资源只需插入一个或多个新刀片服务器,就像现在加入一个硬盘驱动器一样简单。由于多个刀片服务器可以共用冗余电源,因此最大限度地减少了机架布线。此外,内置的转换器将以太网数据和管理网络、甚至KVM连接集成在一起。
利用自动软件供应工具,管理员只需通过一个网络操作,就能够方便、快捷地将软件安装到一个或多个刀片服务器中。在完成刀片服务器的软件安装之后,管理员就能够利用远程管理工具进行全面的管理。
3、最大限度地利用数据中心的空间
对于寸土寸金的数据中心来说,根据设计和供应商的不同,刀片服务器能够使服务器的密度比目前1U的机架优化的系统增加100%到800%。
4、减少功率消耗
为了减少刀片服务器的功率消耗,大多数供应商将在有些刀片服务器中采用低功率的处理器。即便刀片服务器不使用低功率的处理器,其功耗也少于“综合”服务器,因为刀片服务器的功耗部件较少。此外,供应商也能够承担得起使用高效率电源的费用,因为电源将由多个服务器共用。另外,由于刀片服务器的功耗较低,也就产生较少的热量,因而也就减少了冷却系统的耗电量。
目前,作为服务器领域的新星,这种高密度的刀片服务器所带来的市场前景已经被国外IBM、HP、SUN和DELL等厂商所看重,他们纷纷宣布推出自己的刀片服务器。国内曙光、联想、浪潮等公司也推出他们相应的产品,由于刀片服务器的整体表现性能更强,因此在2004年中,刀片服务器将受到更多企业用户的青睐。下面还是让我们来看一看国产的刀片服务器产品。
网络时代为服务器的应用提供了广阔的空间。服务器因此进入了技术、应用和市场互动并迅速发展的新阶段。服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。对于企业和网络信息提供商来说,无限增长的数据必须集中存储和处理,于是未来的网络发展呈现出集中计算的趋势。集中管理模式对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务,成为对下一代服务器的新要求。刀片服务器(Blade Server )由此应运而生。
刀片服务器是将传统的架式服务器的所有功能集中在一块高度压缩的电路板中,然后再插入到机箱中。从根本上来说,刀片服务器就是一个卡上的服务器:一个单独的主板上包含一个完整的计算机系统,包括处理器、内存、网络连接和相关的电子器件。如果将多个刀片服务器插入一个机架或机柜的平面中,那么该机架或机柜的基础设施就能够共用,同时具有冗余特性。刀片服务器公认的优点有两个,一是克服了芯片服务器集群的缺点,另一个是实现了机柜优化。
那么企业选择刀片服务器主要考虑下面几个理由:
1、降低硬件成本
与传统的服务器不同的是,每个刀片服务器不需要单独的机架和基础设施,因此刀片服务器相对廉价。通过多个系统共用电源、冷却设备、管理硬件和布线系统,可以极大地降低每个服务器的成本。
2、简化部署和维修
部署多个服务器是一个耗时和资源密集的过程。管理员需要将每个服务器安装在机架中,进行电源和网络布线,并为其安装软件。在高密度的环境下,布线尤其是部署中令人头疼的难题之一。利用刀片服务器,管理员只需要对机架进行安装和布线,单独的刀片服务器无需布线。增加新的计算机资源只需插入一个或多个新刀片服务器,就像现在加入一个硬盘驱动器一样简单。由于多个刀片服务器可以共用冗余电源,因此最大限度地减少了机架布线。此外,内置的转换器将以太网数据和管理网络、甚至KVM连接集成在一起。
利用自动软件供应工具,管理员只需通过一个网络操作,就能够方便、快捷地将软件安装到一个或多个刀片服务器中。在完成刀片服务器的软件安装之后,管理员就能够利用远程管理工具进行全面的管理。
3、最大限度地利用数据中心的空间
对于寸土寸金的数据中心来说,根据设计和供应商的不同,刀片服务器能够使服务器的密度比目前1U的机架优化的系统增加100%到800%。
4、减少功率消耗
为了减少刀片服务器的功率消耗,大多数供应商将在有些刀片服务器中采用低功率的处理器。即便刀片服务器不使用低功率的处理器,其功耗也少于“综合”服务器,因为刀片服务器的功耗部件较少。此外,供应商也能够承担得起使用高效率电源的费用,因为电源将由多个服务器共用。另外,由于刀片服务器的功耗较低,也就产生较少的热量,因而也就减少了冷却系统的耗电量。
目前,作为服务器领域的新星,这种高密度的刀片服务器所带来的市场前景已经被国外IBM、HP、SUN和DELL等厂商所看重,他们纷纷宣布推出自己的刀片服务器。国内曙光、联想、浪潮等公司也推出他们相应的产品,由于刀片服务器的整体表现性能更强,因此在2004年中,刀片服务器将受到更多企业用户的青睐。下面还是让我们来看一看国产的刀片服务器产品。
http://www.75pc.com/viewthread.php?tid=4149&extra=&page=1
B. 文档管理软件和文件服务器有什么区别和共同之处
软件名称:WISS文档协同系统V3.2.9
软件版本:V3.2.9
软件大小:32MB
软件类型:简体中文/国产软件
软件分类:文档管理,文档共享
运行环境:Win9x/NT/2000/XP/2003/Vista
试用期限:免费版
联 系 人:[email protected]
开 发 商:北京互诚科技有限公司
下载地址:http://www.chinawiss.com/download.htm
界 面 图:http://www.chinawiss.com/download/u_index.jpg
插件情况:无插件
软件简介:文档管理系统突破传统低效的文件交流方式,采用先进技术和理念的全新文档管理和交流方式。提供强大的全文检索功能,严格方便的权限管理,纯IE界面操作。是充分发挥信息共享威力、提高办公效率的利器。 提供强大的知识积累和交流平台。充分利用网络优势,全面实现文档的网络化,资源的共享利用,对单位资源的利用有极大的帮助。
【基本介绍】
免费的企业文档管理系统。
Wiss文档协同系统是一款能以低成本、高效率地对企业局域网内所有文档进行有效管理的文档管理工具.它通过对企业局域网内各电脑共享目录中的文件进行集中抓取、权限管理、全文检索等技术手段使企业文档能得以充分地应用。
【软件特点】
1:毫秒级文件正文的全文检索。
2:支持用户个人和工作组二种文档管理模式。
3:方便实现企业内部文件交流,管理,分类,检索。
4:安全、方便、严格的文件权限设置和管理。
5:客户端通过IE实现全部功能,不需要客户端软件。
6:支持文件批量上传。
7:文件的客户端和服务器文件自动同步。
8:支持文件多版本控制。
9:支持Txt文件,office文件的在线编辑。
10:支持多种图片的在线缩略图预览功能,包括CAD等专业图片格式
11:用户上传空间控制。
12:方便的工作组目录管理。
13:自带高效的数据库,无需其他任何软件的支持。
14:无需微软的IIS支持。
15:绿色软件,安装简单,3分钟完成,无需设置。
总之Wiss文档协同系统突破传统低效的文件交流方式,采用先进技术和理念的全新文档管理和交流方式。 提供强大的全文检索功能,严格方便的权限管理,纯IE界面操作。是充分发挥信息共享威力、提高办公效率的利器。 提供强大的知识积累和交流平台。充分利用网络优势,全面实现文档的网络化,资源的共享利用,对单位资源的利用有极大的帮助。
C. 什么是文件服务器文件服务器通常使用什么操作系统
win7.8.XP
D. 硬件请问服务器所谓ECC功能是什么意思
ECC是“Error Checking and Correcting”的简写,中文名称是“错误检查和纠正”。简单的说,其具有发现错误,纠正错误的功能,一般多应用在高档台式电脑/服务器及图形工作站上,这将使整个电脑系统在工作时更趋于安全稳定。
内存是一种电子器件,在其工作过程中难免会出现错误,而对于稳定性要求高的用户来说,内存错误可能会引起致命性的问题。内存错误根据其原因还可分为硬错误和软错误。硬件错误是由于硬件的损害或缺陷造成的,因此数据总是不正确,此类错误是无法纠正的;软错误是随机出现的,例如在内存附近突然出现电子干扰等因素都可能造成内存软错误的发生。
为了能检测和纠正内存软错误,首先出现的是内存“奇偶校验”。内存中最小的单位是比特,也称为“位”,位有只有两种状态分别以1和0来标示,每8个连续的比特叫做一个字节(byte)。不带奇偶校验的内存每个字节只有8位,如果其某一位存储了错误的值,就会导致其存储的相应数据发生变化,进而导致应用程序发生错误。而奇偶校验就是在每一字节(8位)之外又增加了一位作为错误检测位。在某字节中存储数据之后,在其8个位上存储的数据是固定的,因为位只能有两种状态1或0,假设存储的数据用位标示为1、1、1、0、0、1、0、1,那么把每个位相加(1+1+1+0+0+1+0+1=5),结果是奇数。对于偶校验,校验位就定义为1,反之则为0;对于奇校验,则相反。当CPU读取存储的数据时,它会再次把前8位中存储的数据相加,计算结果是否与校验位相一致。从而一定程度上能检测出内存错误,奇偶校验只能检测出错误而无法对其进行修正,同时虽然双位同时发生错误的概率相当低,但奇偶校验却无法检测出双位错误。
ECC(Error Checking and Correcting,错误检查和纠正)内存,它同样也是在数据位上额外的位存储一个用数据加密的代码。当数据被写入内存,相应的ECC代码与此同时也被保存下来。当重新读回刚才存储的数据时,保存下来的ECC代码就会和读数据时产生的ECC代码做比较。如果两个代码不相同,他们则会被解码,以确定数据中的那一位是不正确的。然后这一错误位会被抛弃,内存控制器则会释放出正确的数据。被纠正的数据很少会被放回内存。假如相同的错误数据再次被读出,则纠正过程再次被执行。重写数据会增加处理过程的开销,这样则会导致系统性能的明显降低。如果是随机事件而非内存的缺点产生的错误,则这一内存地址的错误数据会被再次写入的其他数据所取代。
使用ECC校验的内存,会对系统的性能造成不小的影响,不过这种纠错对服务器等应用而言是十分重要的,并且由于带ECC校验的内存价格比普通内存要昂贵许多,因此带有ECC校验功能的内存绝大多数都是服务器内存。
E. 什么是服务器
什么是服务器
服务器是计算机的一种,它是网络上一种为客户端计算机提供各种服务的高性能的计算机,它在网络操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及各种专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、信息发表及数据管理等服务。它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面。
目前,按照体系架构来区分,服务器主要分为两类:ISC(精简指令集)架构服务器:这是使用RISC芯片并且主要采用UNIX操作系统的服务器,如Sun公司的SPARC、HP公司的PA-RISC、DEC的Alpha芯片、SGI公司的MIPS等。
IA架构服务器:又称CISC(复杂指令集)架构服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或与其兼容的处理器芯片的服务器,如联想的万全系列、HP的Netserver系列服务器等。
从当前的网络发展状况看,以“小、巧、稳”为特点的IA架构的PC服务器得到了更为广泛的应用。
服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领导”这些设备。
服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。
服务器技术之EMP技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
EMP(Emergency Management Port)技术
EMP(Emergency Management Port)技术也是一种远程管理技术,利用EMP技术可以在客户端通过电话线或电缆直接连接到服务器,来对服务器实施异地操作,如关闭操作系统、启动电源、关闭电源、捕捉服务器屏幕、配置服务器BIOS等操作,是一种很好的实现快速服务和节省维护费用的技术手段。 应用ISC和EMP两种技术可以实现对服务器进行远程监控管理。
服务器技术之RAID冗余磁盘阵列技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
RAID(Rendant Array of Independent Disks)冗余磁盘阵列技术
RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。
RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于Video/Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。所以,若在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。
RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但它无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为"阵列"。
RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。
负载均衡技术概览
当前,无论在企业网、园区网还是在广域网如Internet上,业务量的发展都超出了过去最乐观的估计,上网热潮风起云涌,新的应用层出不穷,即使按照当时最优配置建设的网络,也很快会感到吃不消。尤其是各个网络的核心部分,其数据流量和计算强度之大,使得单一设备根本无法承担,而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,就成了一个问题,负载均衡机制也因此应运而生。
负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性 ;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。
对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体分析,大体上不外乎从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。
■传输链路聚合
为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的链路连入网络。而网络中的业务量分布是不平衡的,核心高、边缘低,关键部门高、一般部门低。伴随计算机处理能力的大幅度提高,人们对多工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,瓶颈延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作(像一脚踢掉网线的插头)就会让服务器与网络断开。
通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其超出目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型企业来说,采用升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级技术就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提供了成本低廉的解决方案,
链路聚合技术,将多个线路的传输容量融合成一个单一的逻辑连接。当原有的线路满足不了需求,而单一线路的升级又太昂贵或难以实现时,就要采用多线路的解决方案了。目前有4种链路聚合技术可以将多条线路“捆绑”起来。同步IMUX系统工作在T1/E1的比特层,利用多个同步的DS1信道传输数据,来实现负载均衡。IMA是另外一种多线路的反向多路复用技术,工作在信元级,能够运行在使用ATM路由器的平台上。用路由器来实现多线路是一种流行的链路聚合技术,路由器可以根据已知的目的地址的缓冲(cache)大小,将分组分配给各个平行的链路,也可以采用循环分配的方法来向线路分发分组。多重链路PPP,又称MP或MLP,是应用于使用PPP封装数据链路的路由器负载平衡技术。MP可以将大的PPP数据包分解成小的数据段,再将其分发给平行的多个线路,还可以根据当前的链路利用率来动态地分配拨号线路。这样做尽管速度很慢,因为数据包分段和附加的缓冲都增加时延,但可以在低速的线路上运行得很好。
链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务器等关键LAN段的线路上采用冗余路由。对于IP系统,可以考虑采用VRRP(虚拟路由冗余协议)。VRRP可以生成一个虚拟缺省的网关地址,当主路由器无法接通时,备用路由器就会采用这个地址,使LAN通信得以继续。总之,当主要线路的性能必需提高而单条线路的升级又不可行时,可以采用链路聚合技术。
更高层交换
大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第2层/3层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力。
Web内容交换技术,即URL交换或七层交换技术,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来执行负载均衡的决策,并可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务。它不是根据TCP端口号来进行控制的,所以不会造成访问流量的滞留。如果Web服务器已经为图像服务、SSL对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。目前,采用第七层交换技术的产品与方案,有黎明网络的iSwitch、交换机,Cisco的CDN(内容交换网络系统)等。
服务器群集解决方案
在某些情况下,例如,某网站内部职员和外部客户同时使用网站,而公司要将内部职员的服务请求连接到一个较慢的服务器来为外部客户提供更多的资源,这时就可以使用Web内容交换技术。Web主机访问控制设备也可以使用这种技术来降低硬件成本,因为它可以轻易地将访问多个主机的用户流量转移给同一个Web服务器。如果用户访问量增加到一定程度,这些流量还可以被转移到专用的Web服务器设备,虽然这种专用设备的成本较高,但是由于使用的是相同的Web内容交换技术来控制流量,所以网络的结构框架就不用再进行改变了。
但是,使用Web内容交换技术的负载均衡设备所能支持的标准和规则的数目有限,其采用的标准和规则的灵活性也有限。另外,负载均衡设备所能监测到HTTP报头的深度也是限制内容交换能力的一个因素。如果所要找的信息在负载均衡设备所不能监测的字段内,那内容交换的作用就无法发挥。而且,内容交换还受到能够同时开启的TCP连接数量以及TCP连接的建立和断开比率的限制。另外,Web内容交换技术还会占用大量的系统资源(包括内存占用和处理器占用)。对Web内容交换技术进行的测试表明,操纵Web内容的吞吐量是很费力的,有时只能得到很小的性能改进。所以,网络管理员必须认真考虑投入与回报的问题。
■带均衡策略的服务器群集
如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是――宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现负载均衡的最初基本设计思想。
早期的服务器群集通常以光纤镜像卡进行主从方式备份。令服务运营商头疼的是关键性服务器或应用较多、数据流量较大的服务器一般档次不会太低,而服务运营商花了两台服务器的钱却常常只得到一台服务器的性能。新的解决方案见图,通过LSANT(Load Sharing Network Address Transfer)将多台服务器网卡的不同IP地址翻译成一个VIP(Virtual IP)地址,使得每台服务器均时时处于工作状态。原来需要用小型机来完成的工作改由多台PC服务器完成,这种弹性解决方案对投资保护的作用是相当明显的――既避免了小型机刚性升级所带来的巨大设备投资,又避免了人员培训的重复投资。同时,服务运营商可以依据业务的需要随时调整服务器的数量。
网络负载均衡提高了诸如Web服务器、FTP服务器和其他关键任务服务器上的因特网服务器程序的可用性和可伸缩性。单一计算机可以提供有限级别的服务器可靠性和可伸缩性。但是,通过将两个或两个以上高级服务器的主机连成群集,网络负载均衡就能够提供关键任务服务器所需的可靠性和性能。
为了建立一个高负载的Web站点,必须使用多服务器的分布式结构。上面提到的使用代理服务器和Web服务器相结合,或者两台Web服务器相互协作的方式也属于多服务器的结构,但在这些多服务器的结构中,每台服务器所起到的作用是不同的,属于非对称的体系结构。非对称的服务器结构中每个服务器起到的作用是不同的,例如一台服务器用于提供静态网页,而另一台用于提供动态网页等等。这样就使得网页设计时就需要考虑不同服务器之间的关系,一旦要改变服务器之间的关系,就会使得某些网页出现连接错误,不利于维护,可扩展性也较差。
能进行负载均衡的网络设计结构为对称结构,在对称结构中每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后,可以通过某种技术,将外部发送来的请求均匀分配到对称结构中的每台服务器上,接收到连接请求的服务器都独立回应客户的请求。在这种结构中,由于建立内容完全一致的Web服务器并不困难,因此负载均衡技术就成为建立一个高负载Web站点的关键性技术。
总之,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或I/O任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。
高端服务器技术
服务器性能指标以系统响应速度和作业吞吐量为代表。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
技术目标
服务器所要求的高扩展性、高可用性、易管理性、高可靠性不仅是厂商追求的技术目标,也是用户所需求的。
可扩展性具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求同时,又保护投资。
http://www.people.com.cn/GB/it/306/2087/2682/20020904/815071.html http://bbs.rzlanshan.gov.cn/dispbbs.asp?boardID=3&ID=5048
F. “WEB服务器”和“文件服务器”是什么意思
Web服务器一般指网站服务器,是指驻留于因特网上某种类型计算机的程序,可以向浏览器等Web客户端提供文档,[1] 也可以放置网站文件,让全世界浏览;可以放置数据文件,让全世界下载。目前最主流的三个Web服务器是Apache Nginx IIS。
Web服务器是可以向发出请求的浏览器提供文档的程序。
1、服务器是一种被动程序:只有当Internet上运行其他计算机中的浏览器发出的请求时,服务器才会响应
。
2 、最常用的Web服务器是Apache和Microsoft的Internet信息服务器(Internet Information Services,IIS)。
3、Internet上的服务器也称为Web服务器,是一台在Internet上具有独立IP地址的计算机,可以向Internet上的客户机提供WWW、Email和FTP等各种Internet服务。
4、Web服务器是指驻留于因特网上某种类型计算机的程序。当Web浏览器(客户端)连到服务器上并请求文件时,服务器将处理该请求并将文件反馈到该浏览器上,附带的信息会告诉浏览器如何查看该文件(即文件类型)。服务器使用HTTP(超文本传输协议)与客户机浏览器进行信息交流,这就是人们常把它们称为HTTP服务器的原因。
Web服务器不仅能够存储信息,还能在用户通过Web浏览器提供的信息的基础上运行脚本和程序。
文件服务器是一种器件,它的功能就是向服务器提供文件。它加强了存储器的功能,简化了网络数据的管理。它一则改善了系统的性能,提高了数据的可用性,二则减少了管理的复杂程度,降低了运营费用。
在客机与服务器模式下,文件服务器(file server)是一台对中央存储和数据文件管理负责的计算机,这样在同一网络中的其他计算机就可以访问这些文件。文件服务器允许用户在网络上共享信息,而不用通过软磁盘或一些其它外部存储设备来物理地移动文件。任何计算机都能被设置为主机,并作为文件服务器(file server)运行。最简单的形式是,文件服务器可以是一台普通的个人计算机,它处理文件要求并在网络中发送它们。在更复杂的网络中,文件服务器也可以是一台专门的网络附加存储(NAS)设备,它也可以作为其他计算机的远程硬盘驱动器来运行,并允许网络中的人像在他们自己的硬盘中一样在服务器中存储文件
文件服务器(fs服务器),具有分时系统文件管理的全部功能,提供网络用户访问文件、目录的并发控制和安全保密措施的局域网(LAN)服务器。
在计算机局域网中,以文件数据共享为目标,需要将供多台计算机共享的文件存放于一台计算机中。这台计算机就被称为文件服务器。
文件服务器具有分时系统管理的全部功能,能够对全网统一管理,能够提供网络用户访问文件、目录的并发控制和安全保密措施。
“文件服务器“英文是File server语境【文件系统】
一台特殊功能的计算机,其主要目的是向客户机提供文件服务。文件服务器可以是一台能够运行其他应用的通用计算机,也可以是一台专门提供文件服务的专用计算机。
G. 局域网中的服务器是什么和路由器交换机有什么区别
交换机与路由器的区别 计算机网络往往由许多种不同类型的网络互连连接而成。如果几个计算机网络只是在物理上连接在一起,它们之间并不能进行通信,那么这种“互连”并没有什么实际意义。因此通常在谈到“互连”时,就已经暗示这些相互连接的计算机是可以进行通信的,也就是说,从功能上和逻辑上看,这些计算机网络已经组成了一个大型的计算机网络,或称为互联网络,也可简称为互联网、互连网。 将网络互相连接起来要使用一些中间设备(或中间系统),ISO的术语称之为中继(relay)系统。根据中继系统所在的层次,可以有以下五种中继系统: 1.物理层(即常说的第一层、层L1)中继系统,即转发器(repeater)。 2.数据链路层(即第二层,层L2),即网桥或桥接器(bridge)。 3.网络层(第三层,层L3)中继系统,即路由器(router)。 4.网桥和路由器的混合物桥路器(brouter)兼有网桥和路由器的功能。 5.在网络层以上的中继系统,即网关(gateway). 当中继系统是转发器时,一般不称之为网络互联,因为这仅仅是把一个网络扩大了,而这仍然是一个网络。高层网关由于比较复杂,目前使用得较少。因此一般讨论网络互连时都是指用交换机和路由器进行互联的网络。本文主要阐述交换机和路由器及其区别。 2 交换机和路由器 “交换”是今天网络里出现频率最高的一个词,从桥接到路由到ATM直至电话系统,无论何种场合都可将其套用,搞不清到底什么才是真正的交换。其实交换一词最早出现于电话系统,特指实现两个不同电话机之间话音信号的交换,完成该工作的设备就是电话交换机。所以从本意上来讲,交换只是一种技术概念,即完成信号由设备入口到出口的转发。因此,只要是和符合该定义的所有设备都可被称为交换设备。由此可见,“交换”是一个涵义广泛的词语,当它被用来描述数据网络第二层的设备时,实际指的是一个桥接设备;而当它被用来描述数据网络第三层的设备时,又指的是一个路由设备。 我们经常说到的以太网交换机实际是一个基于网桥技术的多端口第二层网络设备,它为数据帧从一个端口到另一个任意端口的转发提供了低时延、低开销的通路。 由此可见,交换机内部核心处应该有一个交换矩阵,为任意两端口间的通信提供通路,或是一个快速交换总线,以使由任意端口接收的数据帧从其他端口送出。在实际设备中,交换矩阵的功能往往由专门的芯片(ASIC)完成。另外,以太网交换机在设计思想上有一个重要的假设,即交换核心的速度非常之快,以致通常的大流量数据不会使其产生拥塞,换句话说,交换的能力相对于所传信息量而无穷大(与此相反,ATM交换机在设计上的思路是,认为交换的能力相对所传信息量而言有限)。 虽然以太网第二层交换机是基于多端口网桥发展而来,但毕竟交换有其更丰富的特性,使之不但是获得更多带宽的最好途径,而且还使网络更易管理。 而路由器是OSI协议模型的网络层中的分组交换设备(或网络层中继设备),路由器的基本功能是把数据(IP报文)传送到正确的网络,包括: 1.IP数据报的转发,包括数据报的寻径和传送; 2.子网隔离,抑制广播风暴; 3.维护路由表,并与其他路由器交换路由信息,这是IP报文转发的基础。 4.IP数据报的差错处理及简单的拥塞控制; 5.实现对IP数据报的过滤和记帐。 对于不同地规模的网络,路由器的作用的侧重点有所不同。 在主干网上,路由器的主要作用是路由选择。主干网上的路由器,必须知道到达所有下层网络的路径。这需要维护庞大的路由表,并对连接状态的变化作出尽可能迅速的反应。路由器的故障将会导致严重的信息传输问题。 在地区网中,路由器的主要作用是网络连接和路由选择,即连接下层各个基层网络单位--园区网,同时负责下层网络之间的数据转发。 在园区网内部,路由器的主要作用是分隔子网。早期的互连网基层单位是局域网(LAN),其中所有主机处于同一逻辑网络中。随着网络规模的不断扩大,局域网演变成以高速主干和路由器连接的多个子网所组成的园区网。在其中,处个子网在逻辑上独立,而路由器就是唯一能够分隔它们的设备,它负责子网间的报文转发和广播隔离,在边界上的路由器则负责与上层网络的连接。 3 第二层交换机和路由器的区别 传统交换机从网桥发展而来,属于OSI第二层即数据链路层设备。它根据MAC地址寻址,通过站表选择路由,站表的建立和维护由交换机自动进行。路由器属于OSI第三层即网络层设备,它根据IP地址进行寻址,通过路由表路由协议产生。交换机最大的好处是快速,由于交换机只须识别帧中MAC地址,直接根据MAC地址产生选择转发端口算法简单,便于ASIC实现,因此转发速度极高。但交换机的工作机制也带来一些问题。 1.回路:根据交换机地址学习和站表建立算法,交换机之间不允许存在回路。一旦存在回路,必须启动生成树算法,阻塞掉产生回路的端口。而路由器的路由协议没有这个问题,路由器之间可以有多条通路来平衡负载,提高可靠性。 2.负载集中:交换机之间只能有一条通路,使得信息集中在一条通信链路上,不能进行动态分配,以平衡负载。而路由器的路由协议算法可以避免这一点,OSPF路由协议算法不但能产生多条路由,而且能为不同的网络应用选择各自不同的最佳路由。 3.广播控制:交换机只能缩小冲突域,而不能缩小广播域。整个交换式网络就是一个大的广播域,广播报文散到整个交换式网络。而路由器可以隔离广播域,广播报文不能通过路由器继续进行广播。 4.子网划分:交换机只能识别MAC地址。MAC地址是物理地址,而且采用平坦的地址结构,因此不能根据MAC地址来划分子网。而路由器识别IP地址,IP地址由网络管理员分配,是逻辑地址且IP地址具有层次结构,被划分成网络号和主机号,可以非常方便地用于划分子网,路由器的主要功能就是用于连接不同的网络。 5.保密问题:虽说交换机也可以根据帧的源MAC地址、目的MAC地址和其他帧中内容对帧实施过滤,但路由器根据报文的源IP地址、目的IP地址、TCP端口地址等内容对报文实施过滤,更加直观方便。 6.介质相关:交换机作为桥接设备也能完成不同链路层和物理层之间的转换,但这种转换过程比较复杂,不适合ASIC实现,势必降低交换机的转发速度。因此目前交换机主要完成相同或相似物理介质和链路协议的网络互连,而不会用来在物理介质和链路层协议相差甚元的网络之间进行互连。而路由器则不同,它主要用于不同网络之间互连,因此能连接不同物理介质、链路层协议和网络层协议的网络。路由器在功能上虽然占据了优势,但价格昂贵,报文转发速度低。 近几年,交换机为提高性能做了许多改进,其中最突出的改进是虚拟网络和三层交换。 划分子网可以缩小广播域,减少广播风暴对网络的影响。路由器每一接口连接一个子网,广播报文不能经过路由器广播出去,连接在路由器不同接口的子网属于不同子网,子网范围由路由器物理划分。对交换机而言,每一个端口对应一个网段,由于子网由若干网段构成,通过对交换机端口的组合,可以逻辑划分子网。广播报文只能在子网内广播,不能扩散到别的子网内,通过合理划分逻辑子网,达到控制广播的目的。由于逻辑子网由交换机端口任意组合,没有物理上的相关性,因此称为虚拟子网,或叫虚拟网。虚拟网技术不用路由器就解决了广播报文的隔离问题,且虚拟网内网段与其物理位置无关,即相邻网段可以属于不同虚拟网,而相隔甚远的两个网段可能属于不同虚拟网,而相隔甚远的两个网段可能属于同一个虚拟网。不同虚拟网内的终端之间不能相互通信,增强了对网络内数据的访问控制。 交换机和路由器是性能和功能的矛盾体,交换机交换速度快,但控制功能弱,路由器控制性能强,但报文转发速度慢。解决这个矛盾的技术是三层交换,既有交换机线速转发报文能力,又有路由器良好的控制功能。 4 第三层交换机和路由器的区别 在第三层交换技术出现之前,几乎没有必要将路由功能器件和路由器区别开来,他们完全是相同的:提供路由功能正在路由器的工作,然而,现在第三层交换机完全能够执行传统路由器的大多数功能。作为网络互连的设备,第三层交换机具有以下特征: 1.转发基于第三层地址的业务流; 2.完全交换功能; 3.可以完成特殊服务,如报文过滤或认证; 4.执行或不执行路由处理。 第三层交换机与传统路由器相比有如下优点: 1.子网间传输带宽可任意分配:传统路由器每个接口连接一个子网,子网通过路由器进行传输的速率被接口的带宽所限制。而三层交换机则不同,它可以把多个端口定义成一个虚拟网,把多个端口组成的虚拟网作为虚拟网接口,该虚拟网内信息可通过组成虚拟网的端口送给三层交换机,由于端口数可任意指定,子网间传输带宽没有限制。 2.合理配置信息资源:由于访问子网内资源速率和访问全局网中资源速率没有区别,子网设置单独服务器的意义不大,通过在全局网中设置服务器群不仅节省费用,更可以合理配置信息资源。 3.降低成本:通常的网络设计用交换机构成子网,用路由器进行子网间互连。目前采用三层交换机进行网络设计,既可以进行任意虚拟子网划分,又可以通过交换机三层路由功能完成子网间通信,为此节省了价格昂贵的路由器。 4.交换机之间连接灵活:作为交换机,它们之间不允许存在回路,作为路由器,又可有多条通路来提高可靠性、平衡负载。三层交换机用生成树算法阻塞造成回路的端口,但进行路由选择时,依然把阻塞掉的通路作为可选路径参与路由选择。 5 结论 综上所述,交换机一般用于LAN-WAN的连接,交换机归于网桥,是数据链路层的设备,有些交换机也可实现第三层的交换。路由器用于WAN-WAN之间的连接,可以解决异性网络之间转发分组,作用于网络层。他们只是从一条线路上接受输入分组,然后向另一条线路转发。这两条线路可能分属于不同的网络,并采用不同协议。相比较而言,路由器的功能较交换机要强大,但速度相对也慢,价格昂贵,第三层交换机既有交换机线速转发报文能力,又有路由器良好的控制功能,因此得以广播应用。 参考资料:http://www.boofee.net/flyingbamboo/index.php?job=art&articleid=a_20050827_150403 回答者:匿名 10-11 13:10 其他回答 共 2 条 最近看到很多人在询问交换机、集线器、路由器是什么,功能如何,有何区别,笔者就这些问题简单的做些解答。 首先说HUB,也就是集线器。它的作用可以简单的理解为将一些机器连接起来组成一个局域网。而交换机(又名交换式集线器)作用与集线器大体相同。但是两者在性能上有区别:集线器采用的式共享带宽的工作方式,而交换机是独享带宽。这样在机器很多或数据量很大时,两者将会有比较明显的。而路由器与以上两者有明显区别,它的作用在于连接不同的网段并且找到网络中数据传输最合适的路径 ,可以说一般情况下个人用户需求不大。路由器是产生于交换机之后,就像交换机产生于集线器之后,所以路由器与交换机也有一定联系,并不是完全独立的两种设备。路由器主要克服了交换机不能路由转发数据包的不足。 总的来说,路由器与交换机的主要区别体现在以下几个方面: (1)工作层次不同 最初的的交换机是工作在OSI/RM开放体系结构的数据链路层,也就是第二层,而路由器一开始就设计工作在OSI模型的网络层。由于交换机工作在OSI的第二层(数据链路层),所以它的工作原理比较简单,而路由器工作在OSI的第三层(网络层),可以得到更多的协议信息,路由器可以做出更加智能的转发决策。 (2)数据转发所依据的对象不同 交换机是利用物理地址或者说MAC地址来确定转发数据的目的地址。而路由器则是利用不同网络的ID号(即IP地址)来确定数据转发的地址。IP地址是在软件中实现的,描述的是设备所在的网络,有时这些第三层的地址也称为协议地址或者网络地址。MAC地址通常是硬件自带的,由网卡生产商来分配的,而且已经固化到了网卡中去,一般来说是不可更改的。而IP地址则通常由网络管理员或系统自动分配。 (3)传统的交换机只能分割冲突域,不能分割广播域;而路由器可以分割广播域 由交换机连接的网段仍属于同一个广播域,广播数据包会在交换机连接的所有网段上传播,在某些情况下会导致通信拥挤和安全漏洞。连接到路由器上的网段会被分配成不同的广播域,广播数据不会穿过路由器。虽然第三层以上交换机具有VLAN功能,也可以分割广播域,但是各子广播域之间是不能通信交流的,它们之间的交流仍然需要路由器。 (4)路由器提供了防火墙的服务 路由器仅仅转发特定地址的数据包,不传送不支持路由协议的数据包传送和未知目标网络数据包的传送,从而可以防止广播风暴。 交换机一般用于LAN-WAN的连接,交换机归于网桥,是数据链路层的设备,有些交换机也可实现第三层的交换。 路由器用于WAN-WAN之间的连接,可以解决异性网络之间转发分组,作用于网络层。他们只是从一条线路上接受输入分组,然后向另一条线路转发。这两条线路可能分属于不同的网络,并采用不同协议。相比较而言,路由器的功能较交换机要强大,但速度相对也慢,价格昂贵,第三层交换机既有交换机线速转发报文能力,又有路由器良好的控制功能,因此得以广泛应用。 目前个人比较多宽带接入方式就是ADSL,因此笔者就ADSL的接入来简单的说明一下。现在购买的ADSL猫大多具有路由功能(很多的时候厂家在出厂时将路由功能屏蔽了,因为电信安装时大多是不启用路由功能的,启用DHCP。打开ADSL的路由功能),如果个人上网或少数几台通过ADSL本身就可以了,如果电脑比较多你只需要再购买一个或多个集线器或者交换机。考虑到如今集线器与交换机的 价格相差十分小,不是特殊的原因,请购买一个交换机。不必去追求高价,因为如今产品同质化十分严重,我最便宜的交换机现在没有任 何问题。给你一个参考报价,建议你购买一个8口的,以满足扩充需求,一般的价格100元左右。接上交换机,所有电脑再接到交换机上就行了。余下所要做的事情就只有把各个机器的网线插入交换机的接口,将猫的网线插入uplink接口。然后设置路由功能,DHCP等, 就可以共享上网了。 看完以上的解说读者应该对交换机、集线器、路由器有了一些了解,目前的使用主要还是以交换机、路由器的组合使用为主,具体的组合方式可根据具体的网络情况和需求来确定。
H. 路由器、交换器、服务器等有什么具体用途
HUB就是 集线器 交换机 已快推出历史舞台了..
具体看下面...
(多给点分吧....解释好累哦)
什么是路由器 路由器是一种连接多个网络或网段的网络设备,它能将不同网络或网段之间的数据信息进行“翻译”,以使它们能够相互“读”懂对方的数据,从而构成一个更大的网络。
路由器有两大典型功能,即数据通道功能和控制功能。数据通道功能包括转发决定、背板转发以及输出链路调度等,一般由特定的硬件来完成;控制功能一般用软件来实现,包括与相邻路由器之间的信息交换、系统配置、系统管理等。
多少年来,路由器的发展有起有伏。90年代中期,传统路由器成为制约因特网发展的瓶颈。ATM交换机取而代之,成为IP骨干网的核心,路由器变成了配角。进入90年代末期,Internet规模进一步扩大,流量每半年翻一番,ATM网又成为瓶颈,路由器东山再起,Gbps路由交换机在1997年面世后,人们又开始以Gbps路由交换机取代ATM交换机,架构以路由器为核心的骨干网。
附:路由器原理及路由协议
近十年来,随着计算机网络规模的不断扩大,大型互联网络(如Internet)的迅猛发展,路由技术在网络技术中已逐渐成为关键部分,路由器也随之成为最重要的网络设备。用户的需求推动着路由技术的发展和路由器的普及,人们已经不满足于仅在本地网络上共享信息,而希望最大限度地利用全球各个地区、各种类型的网络资源。而在目前的情况下,任何一个有一定规模的计算机网络(如企业网、校园网、智能大厦等),无论采用的是快速以大网技术、FDDI技术,还是ATM技术,都离不开路由器,否则就无法正常运作和管理。
1 网络互连
把自己的网络同其它的网络互连起来,从网络中获取更多的信息和向网络发布自己的消息,是网络互连的最主要的动力。网络的互连有多种方式,其中使用最多的是网桥互连和路由器互连。
1.1 网桥互连的网络
网桥工作在OSI模型中的第二层,即链路层。完成数据帧(frame)的转发,主要目的是在连接的网络间提供透明的通信。网桥的转发是依据数据帧中的源地址和目的地址来判断一个帧是否应转发和转发到哪个端口。帧中的地址称为“MAC”地址或“硬件”地址,一般就是网卡所带的地址。
网桥的作用是把两个或多个网络互连起来,提供透明的通信。网络上的设备看不到网桥的存在,设备之间的通信就如同在一个网上一样方便。由于网桥是在数据帧上进行转发的,因此只能连接相同或相似的网络(相同或相似结构的数据帧),如以太网之间、以太网与令牌环(token ring)之间的互连,对于不同类型的网络(数据帧结构不同),如以太网与X.25之间,网桥就无能为力了。
网桥扩大了网络的规模,提高了网络的性能,给网络应用带来了方便,在以前的网络中,网桥的应用较为广泛。但网桥互连也带来了不少问题:一个是广播风暴,网桥不阻挡网络中广播消息,当网络的规模较大时(几个网桥,多个以太网段),有可能引起广播风暴(broadcasting storm),导致整个网络全被广播信息充满,直至完全瘫痪。第二个问题是,当与外部网络互连时,网桥会把内部和外部网络合二为一,成为一个网,双方都自动向对方完全开放自己的网络资源。这种互连方式在与外部网络互连时显然是难以接受的。问题的主要根源是网桥只是最大限度地把网络沟通,而不管传送的信息是什么。
1.2 路由器互连网络
路由器互连与网络的协议有关,我们讨论限于TCP/IP网络的情况。
路由器工作在OSI模型中的第三层,即网络层。路由器利用网络层定义的“逻辑”上的网络地址(即IP地址)来区别不同的网络,实现网络的互连和隔离,保持各个网络的独立性。路由器不转发广播消息,而把广播消息限制在各自的网络内部。发送到其他网络的数据茵先被送到路由器,再由路由器转发出去。
IP路由器只转发IP分组,把其余的部分挡在网内(包括广播),从而保持各个网络具有相对的独立性,这样可以组成具有许多网络(子网)互连的大型的网络。由于是在网络层的互连,路由器可方便地连接不同类型的网络,只要网络层运行的是IP协议,通过路由器就可互连起来。
网络中的设备用它们的网络地址(TCP/IP网络中为IP地址)互相通信。IP地址是与硬件地址无关的“逻辑”地址。路由器只根据IP地址来转发数据。IP地址的结构有两部分,一部分定义网络号,另一部分定义网络内的主机号。目前,在Internet网络中采用子网掩码来确定IP地址中网络地址和主机地址。子网掩码与IP地址一样也是32bit,并且两者是一一对应的,并规定,子网掩码中数字为“1”所对应的IP地址中的部分为网络号,为“0”所对应的则为主机号。网络号和主机号合起来,才构成一个完整的IP地址。同一个网络中的主机IP地址,其网络号必须是相同的,这个网络称为IP子网。
通信只能在具有相同网络号的IP地址之间进行,要与其它IP子网的主机进行通信,则必须经过同一网络上的某个路由器或网关(gateway)出去。不同网络号的IP地址不能直接通信,即使它们接在一起,也不能通信。
路由器有多个端口,用于连接多个IP子网。每个端口的IP地址的网络号要求与所连接的IP子网的网络号相同。不同的端口为不同的网络号,对应不同的IP子网,这样才能使各子网中的主机通过自己子网的IP地址把要求出去的IP分组送到路由器上
2 路由原理
当IP子网中的一台主机发送IP分组给同一IP子网的另一台主机时,它将直接把IP分组送到网络上,对方就能收到。而要送给不同IP于网上的主机时,它要选择一个能到达目的子网上的路由器,把IP分组送给该路由器,由路由器负责把IP分组送到目的地。如果没有找到这样的路由器,主机就把IP分组送给一个称为“缺省网关(default gateway)”的路由器上。“缺省网关”是每台主机上的一个配置参数,它是接在同一个网络上的某个路由器端口的IP地址。
路由器转发IP分组时,只根据IP分组目的IP地址的网络号部分,选择合适的端口,把IP分组送出去。同主机一样,路由器也要判定端口所接的是否是目的子网,如果是,就直接把分组通过端口送到网络上,否则,也要选择下一个路由器来传送分组。路由器也有它的缺省网关,用来传送不知道往哪儿送的IP分组。这样,通过路由器把知道如何传送的IP分组正确转发出去,不知道的IP分组送给“缺省网关”路由器,这样一级级地传送,IP分组最终将送到目的地,送不到目的地的IP分组则被网络丢弃了。
目前TCP/IP网络,全部是通过路由器互连起来的,Internet就是成千上万个IP子网通过路由器互连起来的国际性网络。这种网络称为以路由器为基础的网络(router based network),形成了以路由器为节点的“网间网”。在“网间网”中,路由器不仅负责对IP分组的转发,还要负责与别的路由器进行联络,共同确定“网间网”的路由选择和维护路由表。
路由动作包括两项基本内容:寻径和转发。寻径即判定到达目的地的最佳路径,由路由选择算法来实现。由于涉及到不同的路由选择协议和路由选择算法,要相对复杂一些。为了判定最佳路径,路由选择算法必须启动并维护包含路由信息的路由表,其中路由信息依赖于所用的路由选择算法而不尽相同。路由选择算法将收集到的不同信息填入路由表中,根据路由表可将目的网络与下一站(nexthop)的关系告诉路由器。路由器间互通信息进行路由更新,更新维护路由表使之正确反映网络的拓扑变化,并由路由器根据量度来决定最佳路径。这就是路由选择协议(routing protocol),例如路由信息协议(RIP)、开放式最短路径优先协议(OSPF)和边界网关协议(BGP)等。
转发即沿寻径好的最佳路径传送信息分组。路由器首先在路由表中查找,判明是否知道如何将分组发送到下一个站点(路由器或主机),如果路由器不知道如何发送分组,通常将该分组丢弃;否则就根据路由表的相应表项将分组发送到下一个站点,如果目的网络直接与路由器相连,路由器就把分组直接送到相应的端口上。这就是路由转发协议(routed protocol)。
路由转发协议和路由选择协议是相互配合又相互独立的概念,前者使用后者维护的路由表,同时后者要利用前者提供的功能来发布路由协议数据分组。下文中提到的路由协议,除非特别说明,都是指路由选择协议,这也是普遍的习惯。
3 路由协议
典型的路由选择方式有两种:静态路由和动态路由。
静态路由是在路由器中设置的固定的路由表。除非网络管理员干预,否则静态路由不会发生变化。由于静态路由不能对网络的改变作出反映,一般用于网络规模不大、拓扑结构固定的网络中。静态路由的优点是简单、高效、可靠。在所有的路由中,静态路由优先级最高。当动态路由与静态路由发生冲突时,以静态路由为准。
动态路由是网络中的路由器之间相互通信,传递路由信息,利用收到的路由信息更新路由器表的过程。它能实时地适应网络结构的变化。如果路由更新信息表明发生了网络变化,路由选择软件就会重新计算路由,并发出新的路由更新信息。这些信息通过各个网络,引起各路由器重新启动其路由算法,并更新各自的路由表以动态地反映网络拓扑变化。动态路由适用于网络规模大、网络拓扑复杂的网络。当然,各种动态路由协议会不同程度地占用网络带宽和CPU资源。
静态路由和动态路由有各自的特点和适用范围,因此在网络中动态路由通常作为静态路由的补充。当一个分组在路由器中进行寻径时,路由器首先查找静态路由,如果查到则根据相应的静态路由转发分组;否则再查找动态路由。
根据是否在一个自治域内部使用,动态路由协议分为内部网关协议(IGP)和外部网关协议(EGP)。这里的自治域指一个具有统一管理机构、统一路由策略的网络。自治域内部采用的路由选择协议称为内部网关协议,常用的有RIP、OSPF;外部网关协议主要用于多个自治域之间的路由选择,常用的是BGP和BGP-4。下面分别进行简要介绍。
3.1 RIP路由协议
RIP协议最初是为Xerox网络系统的Xerox parc通用协议而设计的,是Internet中常用的路由协议。RIP采用距离向量算法,即路由器根据距离选择路由,所以也称为距离向量协议。路由器收集所有可到达目的地的不同路径,并且保存有关到达每个目的地的最少站点数的路径信息,除到达目的地的最佳路径外,任何其它信息均予以丢弃。同时路由器也把所收集的路由信息用RIP协议通知相邻的其它路由器。这样,正确的路由信息逐渐扩散到了全网。
RIP使用非常广泛,它简单、可靠,便于配置。但是RIP只适用于小型的同构网络,因为它允许的最大站点数为15,任何超过15个站点的目的地均被标记为不可达。而且RIP每隔30s一次的路由信息广播也是造成网络的广播风暴的重要原因之一。
3.2 OSPF路由协议
80年代中期,RIP已不能适应大规模异构网络的互连,0SPF随之产生。它是网间工程任务组织(1ETF)的内部网关协议工作组为IP网络而开发的一种路由协议。
0SPF是一种基于链路状态的路由协议,需要每个路由器向其同一管理域的所有其它路由器发送链路状态广播信息。在OSPF的链路状态广播中包括所有接口信息、所有的量度和其它一些变量。利用0SPF的路由器首先必须收集有关的链路状态信息,并根据一定的算法计算出到每个节点的最短路径。而基于距离向量的路由协议仅向其邻接路由器发送有关路由更新信息。
与RIP不同,OSPF将一个自治域再划分为区,相应地即有两种类型的路由选择方式:当源和目的地在同一区时,采用区内路由选择;当源和目的地在不同区时,则采用区间路由选择。这就大大减少了网络开销,并增加了网络的稳定性。当一个区内的路由器出了故障时并不影响自治域内其它区路由器的正常工作,这也给网络的管理、维护带来方便。
3.3 BGP和BGP-4路由协议
BGP是为TCP/IP互联网设计的外部网关协议,用于多个自治域之间。它既不是基于纯粹的链路状态算法,也不是基于纯粹的距离向量算法。它的主要功能是与其它自治域的BGP交换网络可达信息。各个自治域可以运行不同的内部网关协议。BGP更新信息包括网络号/自治域路径的成对信息。自治域路径包括到达某个特定网络须经过的自治域串,这些更新信息通过TCP传送出去,以保证传输的可靠性。
为了满足Internet日益扩大的需要,BGP还在不断地发展。在最新的BGp4中,还可以将相似路由合并为一条路由。
3.4 路由表项的优先问题
在一个路由器中,可同时配置静态路由和一种或多种动态路由。它们各自维护的路由表都提供给转发程序,但这些路由表的表项间可能会发生冲突。这种冲突可通过配置各路由表的优先级来解决。通常静态路由具有默认的最高优先级,当其它路由表表项与它矛盾时,均按静态路由转发。
4 路由算法
路由算法在路由协议中起着至关重要的作用,采用何种算法往往决定了最终的寻径结果,因此选择路由算法一定要仔细。通常需要综合考虑以下几个设计目标:
——(1)最优化:指路由算法选择最佳路径的能力。
——(2)简洁性:算法设计简洁,利用最少的软件和开销,提供最有效的功能。
——(3)坚固性:路由算法处于非正常或不可预料的环境时,如硬件故障、负载过高或操作失误时,都能正确运行。由于路由器分布在网络联接点上,所以在它们出故障时会产生严重后果。最好的路由器算法通常能经受时间的考验,并在各种网络环境下被证实是可靠的。
——(4)快速收敛:收敛是在最佳路径的判断上所有路由器达到一致的过程。当某个网络事件引起路由可用或不可用时,路由器就发出更新信息。路由更新信息遍及整个网络,引发重新计算最佳路径,最终达到所有路由器一致公认的最佳路径。收敛慢的路由算法会造成路径循环或网络中断。
——(5)灵活性:路由算法可以快速、准确地适应各种网络环境。例如,某个网段发生故障,路由算法要能很快发现故障,并为使用该网段的所有路由选择另一条最佳路径。
路由算法按照种类可分为以下几种:静态和动态、单路和多路、平等和分级、源路由和透明路由、域内和域间、链路状态和距离向量。前面几种的特点与字面意思基本一致,下面着重介绍链路状态和距离向量算法。
链路状态算法(也称最短路径算法)发送路由信息到互联网上所有的结点,然而对于每个路由器,仅发送它的路由表中描述了其自身链路状态的那一部分。距离向量算法(也称为Bellman-Ford算法)则要求每个路由器发送其路由表全部或部分信息,但仅发送到邻近结点上。从本质上来说,链路状态算法将少量更新信息发送至网络各处,而距离向量算法发送大量更新信息至邻接路由器。
由于链路状态算法收敛更快,因此它在一定程度上比距离向量算法更不易产生路由循环。但另一方面,链路状态算法要求比距离向量算法有更强的CPU能力和更多的内存空间,因此链路状态算法将会在实现时显得更昂贵一些。除了这些区别,两种算法在大多数环境下都能很好地运行。
最后需要指出的是,路由算法使用了许多种不同的度量标准去决定最佳路径。复杂的路由算法可能采用多种度量来选择路由,通过一定的加权运算,将它们合并为单个的复合度量、再填入路由表中,作为寻径的标准。通常所使用的度量有:路径长度、可靠性、时延、带宽、负载、通信成本等
5 新一代路由器
由于多媒体等应用在网络中的发展,以及ATM、快速以太网等新技术的不断采用,网络的带宽与速率飞速提高,传统的路由器已不能满足人们对路由器的性能要求。因为传统路由器的分组转发的设计与实现均基于软件,在转发过程中对分组的处理要经过许多环节,转发过程复杂,使得分组转发的速率较慢。另外,由于路由器是网络互连的关键设备,是网络与其它网络进行通信的一个“关口”,对其安全性有很高的要求,因此路由器中各种附加的安全措施增加了CPU的负担,这样就使得路由器成为整个互联网上的“瓶颈”。
传统的路由器在转发每一个分组时,都要进行一系列的复杂操作,包括路由查找、访问控制表匹配、地址解析、优先级管理以及其它的附加操作。这一系列的操作大大影响了路由器的性能与效率,降低了分组转发速率和转发的吞吐量,增加了CPU的负担。而经过路由器的前后分组间的相关性很大,具有相同目的地址和源地址的分组往往连续到达,这为分组的快速转发提供了实现的可能与依据。新一代路由器,如IP Switch、Tag Switch等,就是采用这一设计思想用硬件来实现快速转发,大大提高了路由器的性能与效率。
新一代路由器使用转发缓存来简化分组的转发操作。在快速转发过程中,只需对一组具有相同目的地址和源地址的分组的前几个分组进行传统的路由转发处理,并把成功转发的分组的目的地址、源地址和下一网关地址(下一路由器地址)放人转发缓存中。当其后的分组要进行转发时,茵先查看转发缓存,如果该分组的目的地址和源地址与转发缓存中的匹配,则直接根据转发缓存中的下一网关地址进行转发,而无须经过传统的复杂操作,大大减轻了路由器的负担,达到了提高路由器吞吐量的目标。
------------
集线器,英文名又称Hub,在OSI模型中属于数据链路层。价格便宜是它最大的优势,但由于集线器属于共享型设备,导致了在繁重的网络中,效率变得十分低下,所以我们在中、大型的网络中看不到集线器的身影。如今的集线器普遍采用全双工模式,市场上常见的集线器传输速率普遍都为100Mbps。接下来我们了解一下集线器的几个概念:共享型
集线器最大的特点就是采用共享型模式,就是指在有一个端口在向另一个端口发送数据时,其他端口就处于“等待”状态。为什么会“等待”呢?举个例子来说,其实在单位时间内A向B发送数据包时,A是发送给B、C、D三个端口的(该现象即紧接下文介绍的IP广播),但是只有B接收,其他的端口在第一单位时间判断不是自己需要的数据后将不会再去接收A发送来的数据。直到A再次发送IP广播,在A再次发送IP广播之前的单位时间内,C,D是闲置的,或者CD之间可以传输数据。如图1,我们可以理解为集线器内部只有一条通道(即公共通道),然后在公共通道下方就连接着所有端口。
IP广播
所谓IP广播(也称:群发),是指集线器在发送数据给下层设备时,不分原数据来自何处,将所得数据发给每一个端口,如果其中有端口需要来源的数据,就会处于接收状态,而不需要的端口就处于拒绝状态。举个例子来说:在网内时,当客户端A发送数据包给客户端B时,集线器便将来自A的数据包群发给每一个端口,此时B就处于接收状态,其它端口则处于拒绝状态;在网外也如此,当客户端A发送域名“www.163.com”时,通过集线器,然后经过DNS域名解析把IP地址(202.108.36.172)发回给集线器。此时,集线器便群发给所有接入的端口,需要此地址的机器便处于接收状态(客户端A处于接收状态),不需要则处于拒绝状态。
单位时间
这应该是最简单的一个名词了,也可以理解为Hub的工作频率,比如工作频率为33MHz的Hub,那么在单位时间内Hub能做什么事呢?上面在解释共享型的时候已经举了个例子,但是有一点在这需要解释的是,比如我们有的时候会看到A在向B发送数据的“同时”,C也在向D传送数据,这看起来似乎有点矛盾,也确实是这样,那为什么会看起来2者同时在进行呢?因为A在第一个单位时间内发送数据给B的时候,由于广播的原因,B、C、D在第一个单位时间内会同时接受广播,但是C,D会从第2个单位时间开始拒绝接收A发来的数据,因为C和D已经判断出这些数据不是他们需要的数据。而且在第2个单位时间的时候C也发送一个数据广播,A,B,D都接受,但是只有D会接收这些数据。这些操作只用2到3个单位时间,但是我们却很难察觉到,感觉上就是在同时“进行”一样。
-----
交换”和“交换机”最早起源于电话通讯系统(PSTN)。我们以前经常在电影或电视中看到一些老的影片时常看到有人在电话机旁狂摇几下(注意不是拨号),然后就说:跟我接XXX,话务接线员接到要求后就会把相应端线头插在要接的端子上,即可通话。其实这就是最原始的电话交换机系统,只不过它是一种人工电话交换系统,不是自动的,也不是我们今天要谈的程控交换机,但是我们现在要讲的程控交换机也就是在这个电话交换机技术上发展而来的。
自1876年美国贝尔发明电话以来,随着社会需求的日益增长和科技水平的不断提高,电话交换技术处于迅速的变革和发展之中。其历程可分为三个阶段:人工交换、机电交换和电子交换。
早在1878年就出现了人工交换机,它是借助话务员进行话务接续,显然其效率是很低的。15年后步进制的交换机问世,它标志着交换技术从人工时代迈入机电交换时代。这种交换机属于“直接控制”方式,即用户可以通过话机拨号脉冲直接控制步进接续器做升降和旋转动作。从而自动完成用户间的接续。这种交换机虽然实现了自动接续,但存在着速度慢、效率低、杂音大与机械磨损严重等缺点。
直到1938年发明了纵横制(cross bar)交换机才部分解决了上述问题,相对于步进制交换机,它有两方面重要改进:1.利用继电器控制的压接触接线阵列代替大幅度动作的步进接线器,从而减少了磨损和杂音,提高了可靠性和接续速度;2.由直接控制过渡到间接控制方式,这样用户的拨号脉冲不在直接控制接线器动作,而先由记发器接收,存储,然后通过标志器驱动接线器,以完成用户间接续。这种间接控制方式将控制部分与话路部分分开,提高了灵活性和控制效率,加快了速度。由于纵横制交换机具有一系列优点,因而它在电话交换发展上占有重要的地位,得到了广泛的应用,直到现在,世界上相当多的国家和我国少数地区的公用电话通信网仍在使用纵横交换机
随着半导体器件和计算机技术的诞生与迅速发展,猛烈地冲击着传统的机电式交换结构,使之走向电子化。美国贝尔公司经过艰苦努力于1965年生产了世界上第一台商用存储程序控制的电子交换机(No.1 ESS),这一成果标志着电话交换机从机电时代跃入电子时代,使交换技术发生时代的变革。由于电子交换机具有体积小、速度快、便于提供有效而可靠的服务等优点,引起世界各国的极大兴趣。在发展过程中相继研制出各种类型的电子交换机。
二、交换机的分类
就控制方式而论,主要分两大类:
1、布线逻辑控制(WLC,Wired Logic Control)它是通过布线方式实现交换机的逻辑控制功能,通常这种交换机仍使用机电接线器而将控制部分更新成电子器件,因此称它为布控半电子式交换机,这种交换机相对于机电交换机来说,虽然在器件与技术上向电子化迈进了一大步,但它基本上继承与保留了纵横制交换机布控方式的弊端,体积大,业务与维护功能低,缺乏灵活性,因此它只是机电式向电子式演变历程中的过度性产物。
2、存储程序控制(SPC,Stored Program Control)它是将用户的信息和交换机的控制,维护管理功能预先变成程序存储到计算机的存储器内。当交换机工作时,控制部分自动监测用户的状态变化和所拨号码,并根据要求执行程序,从而完成各种交换功能。通常这种交换机属于全电子型,采用程序控制方式,因此称为存储程序控制交换机,或简称为程控交换机。
程控交换机按用途可分为市话,长话和用户交换机;
按接续方式可分为空分和时分交换机。
程控交换机按信息传送方式可分为:模拟交换机和数字交换机。
由于程控空分交换机的接续网络(或交换网络)采用空分接线器(或交叉点开关阵列),且在话路部分中一般传送和交换的是模拟话音信号,因而习惯称为程控模拟交换机,这种交换机不需进行话音的模数转换(编解码),用户电路简单,因而成本低,目前主要用作小容量模拟用户交换机。
程控时分交换机一般在话路部分中传送和交换的是模拟话音信号,因而习惯称为程控数字交换机,随着数字通信与脉冲编码调制(PCM)技术的迅速发展和广泛应用,世界各先进国家自60年代开始以极大的热情竞相研制数字程控交换机,经过艰苦的努力,法国首先于1970年在拉尼翁(Lanion)成功开通了世界上第一个程控数字交换系统E10,它标志着交换技术从传统的模拟交换进入数字交换时代。由于程控数字交换技术的先进性和设备的经济性,使电话交换跨上了一个新的台阶,而且对开通非话业务,实现综合业务数字交换奠定了基础,因而成为交换技术的主要发展方向,随着微处理器技术和专用集成电路的飞速发展,程控数字交换的优越性愈加明显的展现出来。目前所生产的中大容量的程控交换机全部为数字式的。
90年代后,我国逐渐出现了一批自行研制的大中型容量的具有国际先进水平的数字程控局用交换机,典型的如深圳华为公司的C&C08系列、西安大唐的SP30系列、深圳中兴的ZXJ系列等等,这些交换机的出现,表明在窄带交换机领域,我们国家的研发技术已经达到了世界水平。随着时代的发展,目前的交换机系统逐渐融合ATM、无线通信、接入网技术、HDSL、ASDL、视频会议等先进技术。可以想象,今后的交换机系统,将不仅仅是语音传输系统,而是一个包含声音、文字、图象的高比特宽带传输系统,并深入到千家万户之中。IP电话就是其应用一例。世界上传统交换机厂商目前正努力研制,并通过与计算机厂商的合作和交流,来达到这一目的。
三、交换机的现在与将来——程控交换机的特点与技术动向
程控数字交换机是现代数字通信技术、计算机技术与大规模集成电路(LSI)有机结合的