各位老铁们好,相信很多人对服务器新技术都不是特别的了解,因此呢,今天就来为大家分享下关于服务器新技术以及目前有关服务器系统的最新技术有哪些的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!

一、简述计算机cpu都有哪些新技术

未来的cpu预计会朝着多核、多通道、集成内存、集成显卡、节能、减小面积、提高集成度、散热*更好、更满足消费者的需求等方向发展。

CPU是计算机系统的心脏,计算机特别是微机的快速发展过程,实质上是CPU从低级别向高级、从简单向复杂发展的过程。其设计、制造和处理技术的不断更新换代以及处理能力的不断增强。CPU发展到今天已使微机在整体*能、处理速度、3D图形图像处理、多媒体信息处理及通信等诸多方面达到甚至超过了小型机。

新的通信、游戏及"寓教于乐"等应用程序要求具有视频、3D图形、动画、音频及虚

拟现实等多媒体功能,这些又对CPU提出了新的要求。Intel公司针对这些要求,继386处理

器结构之后提出了CPU的进一步最大升级,这就是将MMX(MutliMedia eXtention多媒体扩

展)技术融入Pentium CPU中。采用MMX技术的处理器在解决了多媒体及通信处理等问题的

同时,还能对其他的任务或应用程序应付自如。

MMX的主要技术特点有以下几点:

(1)单指令、多数据(Single Instruction Mutli-Data,SIMD)技术是MMX的基础,它

使得多条信息可由一条单一指令来处理,它与IA(InstructionArchitecture)超标量体系

结构相结合,极大地增强了PC机平台的*能。MMX技术执行指令时是将8字节数据作为一个

包装的64位值进入CPU的,全部过程由一条指令立即处理。

(2) MMX指令不具有特许*,其通用*很强,不仅能满足建立在当前及未来算法上的P

C机应用程序的大部分需求,而且可用于编码译码器、算法及驱动程序等。

(3) IA MMX指令系统增加了4种新的数据类型,即紧缩字节(8bit×8bit)、紧缩字(4

bit×16bit)、紧缩双字(2bit×32bit)和四字(1bit×64bit)。其目的是紧缩定点整数,

将多个整数字组成一个单一的64位数据,从而使系统在同一时刻能够处理更多的数据。

(4)增加了8个64位MMX寄存器,即浮点寄存器的别名映象。

(5)新增加了57条指令。用这些指令完成音频、视频、图形图像数据处理,使多媒体

、通信处理能力得到大幅度提高。其数学及逻辑指令可支持不同的紧缩整数数据类型,对

于每一种得到支持的数据类型,这些指令都有一个不同的操作码。新的MMX技术指令采用

57个操作码完成,它涉及的功能领域有:基本的算术操作;比较操作;进行新数据类型间的

转换(紧缩数据及从小数据类型向大数据类型解压);逻辑操作;用于MMX寄存器之间的数据

转移(MOV)指令,或内存的64位、32位存取。

可以说09年的整个技术工艺的发展完全是在竞争下展开的。让我们回首一下本年度的技术发展,看一看09年都有哪些处理器技术最具影响力。

睿频技术

从08年11月酷睿i7 900系列处理器的上市开始,睿频技术就已经开始了他的推广,不过由于限定在了高端范围内,并没有使这项技术全面推广。从酷睿i7 900系列的市场占有率来看,Intel似乎对此也并不在意,毕竟酷睿i7 900系列产品的定位较高,因此试探*的测试了解的人数较少是可以理解的。

服务器新技术 目前有关服务器系统的最新技术有哪些

在今年的9月,Intel正式全球发布了面向主流市场的LGA1156接口酷睿i7/i5系列处理器,虽然在接口方面进行了从新设计,但是新发布的LGA1156接口酷睿i7/i5处理器提供了较为完整的酷睿i7 900系列处理器技术(超线程技术除外),其中就包括了睿频技术。从此,该项技术也正是开始了普及之路。

介绍一下什么是睿频技术,和睿频技术所带来的好处。

●动态超频,核心数量按需分配睿频技术简介

目前上市的所有Nehalem架构处理器都提供了睿频技术(英文为Turbo Boost Mode),该项技术的运用可以帮助处理器在空闲时期将整体功耗降低,从而达到节能的目的,但是节能并不是睿频技术的最大亮点,其最大的亮点就在于可以视平台运行状态而定,选择*的提高一个或多个核心的运行频率,从而做到提高工作效率且降低功耗的目的。

睿频技术可以提高一个或多个核心的频率

我们以大型3D游戏为例,某些游戏可能对主频更为敏感,多核心并不能带来明显的效能提升,对处理器进行超频反而效果更好,如果这个时候开启Turbo模式,并且将TDP设定在用户所采用的散热器允许范围内,那么CPU在这个时侯可以对某颗或某两颗核心进行动态超频来提升*能。

睿频技术让处理器超频智能化,自动化

实现Turbo技术需要在核心内部设计一个功率控制器,大约需要消耗100万个晶体管。但这个代价是值得的,因为在某些游戏中开启Turbo模式可以带来10%左右的*能提升,相当于将显卡提升一个档次。值得一提的是,Extreme版本的Core i7处理器最高可以将TDP在BIOS中设定到190W来执行Turbo模式,在个别应用中进一步提升CPU时钟频率,带来效能上的提升。目前,主流的酷睿i7 750处理器在开启该技术后,可在单线程任务是将一颗核心的主频提高至3.2GHz。想必这样高的主频运行单线程任务可以说易如反掌。

超线程技术

超线程,早在2002年Intel便已经推出了这一技术,并且广泛的在奔腾4处理器中大规模应用。采用了超线程技术的奔腾4处理器可以比原产品效能提升10%-15%左右,可见Intel对超线程技术的运用是信心满满的。

但是事实却出乎Intel的意料。首先是来自操作系统端的问题,当时微软已经发布了Windows 2000系统,然而该系统并没有加入对超线程技术的支持,虽然后来出现的Windows XP系统加入了对该技术的支持,但也最终因为应用软件端对超线程技术的优化较少而作罢。另一个问题是来自于Intel自身的奔腾4处理器。基于NetBurst架构的奔腾4处理器由于过分的追求高主频加长了流水线设计,这导致了处理器的主频虽然达到了3GHz以上,却并没有提供3GHz主频相等的*能。由于过高的流水线已经造成数据运算错误率提高,在加上超线程技术的双核模拟容易让CPU在运算时命中失败,且对带宽的惊人需求。超线程技术不但没为处理器带来更高的执行效率,反而在某些情况下降低了奔腾4处理器的*能。所以说超线程技术虽然是一个非常先进且使用的概念,但在那个时代并不适合。

早在奔腾4时代Intel就加入了HT超线程技术

进入酷睿2时代后,由于内存带宽没有获得突飞猛进,而且酷睿2处理器的短流水设计并不适合超线程技术,因此新一代的酷睿架构处理器也就取消了超线程这一概念。

随着技术的进步,Intel已经进入了45nm工艺和Nehalem架构时代,在最新的Nehalem Core i7处理中,由于对DDR3内存控制器的整合,同时引入了三通道内存技术,内存带宽得到了质的飞跃,QPI总线的引入也令处理器的带宽大幅提升。这为超线程技术的回归提供了契机,于是乎Intel在酷睿i7系列以及未来的双核酷睿i5处理器中加入了超线程技术。

Nehalem架构时代超线程技术再次回归

此外,新一代操作系统的推出也给多线程处理器提供了施展拳脚的机会,而3D游戏以及众多的应用软件也针对多线程进行了优化,可以说超线程技术在此时回归时绝对的最佳时机。

可能看到这里依然会有众多的读者朋友会感到奇怪,这超线程技术目前只在高端酷睿i7处理器当中有所运用,并不是普通消费者能够使用到的,为何把它也列为09年最具影响力的技术之一呢?相信了解硬件的读者一定知道,处理器行业中的另一个领军企业AMD一直以来并没有为自身的处理器加入超线程技术。而AMD的高管人士甚至曾经一度认为超线程技术是影响处理器*能发挥的*之一。但是在看到Intel为服务器的至强以及桌面高端处理器引入超线程技术得到了超高的执行效能后,AMD内部高层承认,没有早早引入此类技术是一项技术选择上的失误。为了能够尽快弥补这一技术缺陷,AMD已经决定在不久的将来为旗下的服务器用以及桌面级处理器引入超线程技术。可见超线程技术在酷睿i7及未来的酷睿i5中回归,影响的不仅仅是用户,更影响到了对手。在不久的几年里,也许从低端到高端的所有处理器就可以全部应用到超线程技术。

VT虚拟化技术

我们接下来要介绍的这项技术与前边的超线程技术一样,也不是09年才被创新出来的。这项技术诞生于奔腾4处理器时代,两大芯片巨头当时均已这项技术为宣传目标,但都因为受制于技术*能以及软件方面的问题没有推广开(服务器不在我们的讨论范围内)。随着09年2月,新一代操作系统Windows 7测试版的发布,这项技术才被重新挖掘出来,并且被消费者广为了解。这项技术就是虚拟化技术。

其实我们所提到的Windows 7系统下的虚拟化系统,也仅在高级至旗舰版本才提供了,并不是所有的版本都提供了这一技术。但其带来的好处依然被广大的消费者讨论,即使消费者完全用不到这一技术,但在购买处理器的时候依然考虑到了自己所购买的产品能否提供虚拟化技术。

使用虚拟化系统运行的IE6.0浏览器

虚拟化技术到底有什么过人之处竟然让众多消费者都参入其中呢?其实要说虚拟化的用途,对企业级用户来讲实质*较强,对于普通用户来讲,虚拟化的用途目前还并没有被广泛开发。在企业级用户那里,通过虚拟化系统,企业可以集中并且共享资源,实现降低成本、优化利用率的目的。以高*能服务器为例,在系统闲置的过程中,服务器的*能会造成严重的浪费。如果通过虚拟机将服务器分为若干个部分,进行各自所需的工作,这样就可以最大化的利用服务器的全部*能,从而节省企业开支。而在一些情况下,企业甚至可以通过虚拟机出售服务器的剩余*能,从而达到利润最大化。虚拟化所提供的另外一个好处就是安全。用户可以通过虚拟网络进行数据传输,这样可以最大限度的保证网络的加密能力,提高网络环境的安全度。以上两点是对企业级用户来讲最为基本的用途。那么对普通消费者而言又会有哪些好处呢?

我们以操作系统为例。目前微软所提供的Windows操作系统的全球使用人数最多,而*也针对Windows系统进行的攻击行为也是最多的。如何能够保证操作系统的安全*就显得尤为重要。在虚拟化系统推出之后,用户在不确定自己手中的数据安全*的前提下,如软件,网页等,可以通过虚拟系统来检测数据的安全*。如果发生了如病*等问题,仅需简单的关闭虚拟系统就可以保证系统的安全*。此外,现有系统在不支持某款软件的情况下,用户也可以通过虚拟机来实现对该软件的支持。

简单的用一句话来解释虚拟化就是,可以提供最高的安全保障,并最大限度的利用系统所提供的*能的技术。

45nm工艺技术

在2007年年末,Intel正式发布了第一款采用45nm工艺制程的处理器,酷睿四核QX9650。由于运用了当时最先进的工艺技术,这款四核处理器虽然身价过万,但依然吸引了不少人的目光,因为他的出现标志着45nm工艺时代的降临。

QX9650的问世标志着CPU进入了45nm工艺时代

45nm有何本领?竟然让一颗身价过万的CPU也成为了瞩目的焦点。这一切就要从Intel与AMD两家芯片巨头的45nm工艺入手了。

●Intel——突破式的45nm

2007年,Intel正式发布了四核心Core 2 Extreme QX9650处理器,由此引领行业抢先来到了45nm的新世界。Intel的45nm采用了突破式的新材料,为晶体管发展四十年来之最大进步。

在过往四十余年的时间中,业内均普遍采用二氧化硅做为制造晶体管栅介质的材料。而在65纳米制程工艺下,Intel公司已经将晶体管二氧化硅栅介质的厚度压缩至1.2纳米,基本上达到了这种传统材料的极限。此时不但使得晶体管在效能增益以及制程提升等方面遭遇瓶颈,过薄的晶体管二氧化硅栅介质亦使得其阻隔上层栅极电流泄漏的能力逐渐降低,漏电率大幅攀升。

SOI是Silicon On Isolator的缩写,即绝缘体上的硅技术。和传统的纯硅晶圆不同,SOI工艺使用的晶圆底部是一层绝缘层。这层绝缘体切断了上方MOS管漏电流的回路,使得基于SOI技术的芯片能够轻松抵抗漏电流。

真正解决AMD在 45纳米技术难题的是多重增强晶体管应变技术,AMD和IBM称,与非应变技术相比,这一新技术能将P沟道晶体管的驱动电流提高80%,将N沟道晶体管的驱动电流提高24%。可见,制程的提升极大地提升了处理器的潜在*能,并同时赋予了产品更强的功耗控制能力。

“整合”技术

从09年起,CPU领域最大的的变化就是连个字“整合”,整合GPU,整合PCIe控制器,整合内存控制器,直至完全整合了北桥。而整合所带来的不仅仅是*能上的提升,同时也带来了平台功耗的进一步降低,可以说整合已经成为了未来CPU的发展趋势。

完全整合了北桥功能的酷睿i5 750处理器

整合之路的开始起于AMD的K8架构时代,从K8架构时代开始,AMD将本来属于北桥部分的内存控制器整合进了处理器当中。其好处就是CPU不在受制于FSB的限制,提高了CPU与内存之间的数据带宽,*能得到了翻倍的提升。

随着工艺制程的提升,整合内存控制器的CPU*能被突显出来,Intel也在全新的Nehalem架构中整合进了内存控制器,放弃了传统的前端总线概念。与老的前端总线处理器相比,酷睿i7处理器的QPI总线所提供的带宽最高可以达到32GB/s,这要比1600MHz前端总线所提供的12.8GB/s提高了两倍有余,可见整合内存控制器后对CPU*能提高的影响。

在整合进了内存控制器大获成功之后,Intel和AMD又将目光放在了PCIe控制器上,双方都针对这一整合技术开展了研发。不过,在进度方面Intel方面走在了前边,率先将PCIe控制器整合进了处理器当中,并且推出了LGA1156接口的酷睿i7/酷睿i5系列处理器。从LGA1156接口产品开始,北桥功能就已经完全被整合进入了CPU当中,传统的三芯片概念已经被双芯片完全取代。这样做的好处一方面是提高CPU与内存,CPU与显卡之间的数据带宽,同时也将平台的整体功耗降至最低。可以说整合的概念是最符合未来芯片领域发展趋势的。这也是为何Intel与AMD都在争相推出整合处理器的缘故。

AMD的Fusion计划就是整合技术的一部分

在不就的未来,用户不仅可以使用到整合了北桥功能的处理器,更可以使用到整合了GPU的处理器,当前Intel与AMD都在着手进行着这一整合技术,用户最早在2010年1月就可以使用到整合GPU的处理器。

整合可以说成为了09年下半年处理器的发展趋势,并且在将来也将继续影响着处理器的发展。整合可以算作是09年最有影响力的处理器技术之一

处理器高度集成化、*能更强、处理器更加智能:

英特尔酷睿i处理器

在传统的处理器构架中,处理器基板上仅仅只有一个单独的处理器芯片。而2010年发布的英特尔酷睿i系列处理器,首次在处理器的基板上集成了显示核心。这项技术表面上看起来并没有特别之处,但是对于笔记本产品来说,意味着高度集成化的处理器,可以把笔记本产品设计的更加轻薄。同时一些搭配独立显卡的机型,可以智能的进行双显卡的切换,解决了笔记本*能和电池续航之间的矛盾。

在英特尔酷睿i系列处理器中,除了英特尔 i3系列处理器以外。众多的英特尔酷睿i系列处理器,都支持睿频加速技术,这项技术可以自动检测系统处理负载,而自动判断是否需要自动提升频率,来加快系统的响应速度。当然睿频加速并不是无限制的加速,也是有一定的频率限制。

笔记本首次加入3D显示技术:

笔记本3D技术

随着2010年火遍全球的电影《阿凡达》的上映,彻底引爆了人们对于3D技术的热情。虽然3D技术已经不是什么新鲜事了,而在笔记本上面大面积的使用还是头一回。而笔记本上的3D技术其实也是分派别的,比如说英伟达使用的3D技术,就是红蓝3D和快门式3D技术,而配备ATI显卡的笔记本则使用偏振式3D技术。对于笔记本来说,3D技术可以让用户拥有更加震撼的视觉享受。

笔记本多点触控技笔记本多点触控板

虽然多点触控技术在苹果电脑上早有应用,但是其他品牌的笔记本并没有采用这一技术。而2010年是大规模采用这项技术的一年,多点触控技术让我们可以抛弃传统的鼠标来进行操作。比如说双指向外拉申,就可以放大图片和放大网页。这项技术的出现,大大提高了笔记本触摸板的使用效率,也提高了人们的操作笔记本的效率。

2010年的应用的技术我们基本上算是盘点完了,接下来我们要来盘点一下2011年,可能要装备我们笔记本的那些新技术。

sandy bridge核心构架术:

说起融合可谓是IT技术的一大趋势,比如说sandy bridge核心的新一代处理器。就是把处理器和显卡成功的融合到一款。而AMD也同样有相同的技术,比如说AMD公司的APU处理器,就是把处理器和显卡成功的融合到单个芯片中。

2011年Sandy Bridge整合GPU图形核心技术

虽然目前的处理器加入了睿频加速和集成显卡设计,但是这次SNB自带的GPU图形核心确实经过了大幅度的重新设计,拥有专门的视频转码硬件模块,*能大约是目前HDGraphics的两倍,目前已经的测试也证明Intel所言非虚。借助第二代Turbo Boost睿频加速技术,SNB的CPU、GPU两部分可以相互独立地动态加速。如果你正在玩的游戏更需要GPU资源,那么CPU部分可能会运行在原始频率甚至降低,GPU则在功率允许范围内尽量提速。

超线程和Turbo Boost动态加速技术

SNB移动版全部开启了超线程和Turbo Boost动态加速技术,而且官方内存频率最高提至1600MHz。特别值得一提的是,SNB移动版所集成的图形核心都会有12个执行单元,两倍于桌面版,而且频率方面也不低,默认均为650MHz,动态加速最高1300MHz或者1150MHz。已知的测试可以证明,Intel集显的*能已经相当惊人,照此推算移动版甚至还会更狠,移动独立显卡的生存空间将受到严重挤压。

通过英特尔官方对睿频加速技术的解释。当启动一个运行程序后,处理器会自动加速到合适的频率,而原来的运行速度会提升10%~20%以保证程序流畅运行;应对复杂应用时,处理器可自动提高运行主频以提速,轻松进行对*能要求更高的多任务处理;当进行工作任务切换时,如果只有内存和硬盘在进行主要的工作,处理器会立刻处于节电状态。这样既保证了能源的有效利用,又使程序速度大幅提升。通过智能化地加快处理器速度,从而根据应用需求最大限度地提升*能,为高负载任务提升运行主频高达20%以获得最佳*能即最大限度地有效提升*能以符合高工作负载的应用需求:通过给人工智能、物理模拟和渲染需求分配多条线程处理,可以给用户带来更流畅、更逼真的游戏体验。同时,英特尔智能高速缓存技术提供*能更高、更高效的高速缓存子系统,从而进一步优化了多线程应用上的*能。

随着处理器制程和设计越来越先进,笔记本*能也会随着强大。而处理器和显卡的高度融合,笔记本的续航时间会大大延长,而笔记本可能做的越来越轻薄,*能也会越来越强大。

随着宏碁Iconia笔记本的发布,一下打破了我们对于传统笔记本的定义。而传统物理键盘的消失使得笔记本在用户体验方面更近一层。而物理键盘的消失,我们大可不必担心。虚拟键盘的加入使得笔记本,在文字输入方面不会存在任何问题,只不过没有物理键盘那样的手感了,这也是笔记本变革的“阵痛”。

上面的试用视频中我们可以看到。双屏触摸笔记本无论是在浏览照片、看视频还是浏览网页,都显得如此的简单和便捷。这对于传统键盘来说,无疑可以掀起一轮笔记本革新的风暴。这种用户体验的革新,好比Iphone对于手机业的革新一样,明年各大厂商都应该会发布自家的双屏笔记本。

在2010年电影阿凡达的上映,让很多体验到了3D技术的震撼。而笔记本装备有3D显示屏后,笔记本在用户体验会更上一城楼。比如说,一些第一人称射击游戏在3D技术的存托下,让用户临场感觉更加好。而市场上的传统的3D技术是佩戴3D眼睛来实现的。而大多数用户在长时间观看3D电影和进行3D游戏的时候,会产生晕眩和视力下降的情况。

任天堂即将发售的裸眼3D游戏掌机3DS,把裸眼3D技术推向了3D技术时代浪尖。让大多数人开始渐渐关注起裸眼3D技术。对于裸眼3D技术,大多是人还是很陌生。如今的裸眼3D技术可以分为两派,一个是光屏障式3D技术也被称为视差屏障或视差障栅技术,其原理和偏振式3D较为类似,是由夏普欧洲实验室的工程师十余年的研究成功。光屏障式3D产品与既有的LCD液晶工艺兼容。而这种技术的优点是成本低廉,但是可视角度比较差,而且在显示亮度方面也偏暗。

光屏障碍裸眼3D技术

而如今柱状透镜式裸眼3D正好可以解决光屏障碍裸眼3D的缺陷。其最大的优势便是其亮度不会受到影响。柱状透镜3D技术的原理是在液晶显示屏的前面加上一层柱状透镜,使液晶屏的像平面位于透镜的焦平面上,这样在每个柱透镜下面的图像的像素被分成几个子像素,这样透镜就能以不同的方向投影每个子像素。于是双眼从不同的角度观看显示屏,就看到不同的子像素。不过像素间的间隙也会被放大,因此不能简单地叠加子像素。

第1页:2011年处理器/主板重大事件点评

-

2011年已经接近年底,在这一年中有诸多新技术新产品给我们留下了深刻的印象,明年也将会有更加值得期待的技术出现,今天我们就来做一个收尾总结。今年一年变化还是不小的,比如集成图形*能还算不错的Sandy Bridge处理器、全新概念的APU、最高端的Sandy Bridge-E架构Core i7、AMD正在进行的大裁员和战略调整等等,这些都给我们带来了不小的影响。

对于厂商来说,今年可以用有喜有忧来形容,一方面DIY产品价格越来越便宜,单价利润并没有增加,另外一方面,DIY消费者总量还在快速成长。当然,今年也碰到了诸如泰国发大水导致硬盘狂涨带来的销量影响,不过整体来说今年表现还是不错的。那么明年会是怎么样?目前还真不好说,希望明年行业发展会更好。对于消费者来说,价格便宜自然可以花更少钱玩到新奇的产品,当然便宜的东西也不一定就是好的,用户还是需要理*选择合适的产品。闲话少说,接下来就让我们来一一回顾今年到来的新产品和新技术以及发生的新鲜事,我用时间倒叙的方式给大家做展示。

不得不提的AMD“Project WIN”(胜利工程)

对于AMD来说,2011年并不是一个高速成长的一年,虽然今年有APU和推土机产品陆续登场,但是依然弥补不了和竞争对手的差距,无奈之下,只能进行这次幅度接近12%的大裁员,其中市场营销部门被砍掉了大约60%,市场营销副总裁Patrick"Pat" Moorhead、品牌副总裁JohnVolkmann、公关总监D*e Kroll等都黯然离去,技术人员也未能独善其身,比如多名关键的Fusion工程师都丢掉了饭碗,大概是APU的表现仍然没有达到让AMD满意的程度,甚至整个产品评测支持团队都不存在了。不过与此同时,AMD已经在准备“Project WIN”(胜利工程)以调整未来公司的重心业务和发展方向。

不管该策略最终如何,都并非Rory Read一个人的主意,而是整个董事会的决定,主要目标就是提高效率、降低成本、增加收入、加快产品开发与上市时间。业界普遍认为,Rory Read将会把AMD更多地带往消费级产品市场,低功耗的“山猫”架构将会扮演重要角色。AMD有可能在最近宣布加入ARM阵营,宣布获得ARM许可。

不管怎么样,AMD都需要进一步明确自己的发展方向,找到真正能给自己带来高速增长的契机,也许未来云计算、低功耗以及发展迅猛的中国市场才是AMD需要重点把守的战场。\微软将在明年推出支持ARM架构处理器的Windows 8,ARM也在加紧近日PC以及服务器领域的步伐。10月底,ARM公司正式宣布,其首个采用64位指令集的处理器架构“ARMv8”正式出炉,在这个64位处理器横行的年代,ARM处理器终于跟上时代的脚步了

二、网络系统中的新技术有哪些

⒖蒲械仍嚼丛嚼氩豢��纭⒃嚼丛绞艿酵�绲闹苯踊蚣浣又圃迹�佣�址垂�雌仁谷嗣嵌约扑慊��缦低车目煽啃浴⒖捎眯院驼�逍阅艿囊�蠛推谕�嚼丛礁摺�

众所周知,作为计算机网络系统的核心设备,服务器功能越来越强大,服务器在计算机网络中的地位也日益重要。而服务器至网络的连接*能同样不可忽视,它与服务器的可靠*和整个网络的可靠*同等重要。在实际应用中,无论是网线断了、集线器或*机端口坏了、还是网卡坏了或各接口接触不良等现象都会造成网络通信连接的中断。或者在网络系统中,服务器、路由器、*机、集线器以及各种冗余部件等出现各类大小故障时,都将危及网络系统的稳定和可靠运行,这一点人们是有切肤之痛的。毫不夸张地说,网络运行的机制有待完善、网络运行的管理庇点百出、网络运行的维护还不存章理。因此,为了保证网络系统的正常运行,现代网络系统从硬件和软件两方面正在运用多种高新技术,在此,我们将谈谈这几种新技术。本期先探讨自修复技术。

当用户不能正常使用系统而被迫关机时,所造成的损失对于企业来讲,可能是相当大的。然而在实际应用中,不管人们采用了多么先进的防患措施和安全技术来提高系统的可靠*和可用*,这种非正常关机事件总是无法避免的。面对这种关机现象所带来的巨大损失,随着网络安全技术的发展,无可奈何的人们只得把希望寄托在不停机服务器上。采用自修复技术的自修复服务器就是一种无需人工干预、监视和修理的永远不会关机的服务器系统。

所谓自修复服务器是指它能够预测问题、并能根据问题采取纠错处理和优化系统*能的具有智能化管理功能的服务器。它具有如下基本特征,一是问题预测,即可预测一个事件发生过程中所需要的三种不同行为:监视、检测和分析。监视负责观察一个服务器系统的各个部件的*能是否与期望相符。检测就是当某个事件发生时,系统能够及时发现。分析则是根据事件发生的频率和严重*,来判断是否即将发生错误,然后向系统管理员*;二是纠错处理,一旦预测到错误事件并*,系统就要采取合适的纠错处理,以防止关机事件的发生。在有些情况下,系统还能够重新动态分配资源,避开问题的出现区域,从而彻底防止关机事件。而在另一些情况下,系统管理员会接到系统提供的如建议增加磁盘容量或替换发生潜在故障的驱动器和部件等处理建议。三是*能优化,采用软硬件配置,通过平衡各个部件之间的负载以及系统的自我调整,从而提高服务器系统的*能。

自修复服务器目前还处于发展阶段,现在向服务器系统中加入自修复功能还是一个动态积累的过程,随着越来越多的自修复功能的实现,服务器系统将最终实现完全的自修复系统的高可靠*目标。自修复技术是高可用*环境中一个非常重要的特点,适合于许多重要的商业应用。

随着依靠服务器系统的企业数量的增加,其中不仅包括企业内部的使用,还包括对外商业需要的使用。服务器能够连续运转变得比以往更加重要。用户可以在任何地方、任何时间在线访问企业服务器。当然,自修复系统还有待于建立统一的工业标准,使之能在cpu通信的设备管理中提供一个通用的框架,为i/o管理和ia-64位处理器结构等几个正在发展中的新技术创造条件。自修复服务器的发展过程是一个动态发展过程,工作原理要求系统具有向事件预测、纠错处理和*能优化中不断添加新的运行方案和作业能力的完善机制,使之最终达到具有全面的自修复*能。

负载均衡负载均衡是提高系统*能的一种前沿技术,也是一种广泛应用于服务器群集系统中的新技术。一台ia服务器的处理能力是每秒几万个,无法在一秒钟内处理几十万甚至上百万个请求。但若能将10台这样的服务器组成一个系统,并有办法将所有请求平均分配到所有的服务器,那么这个系统就会拥有每秒处理几十万到几百万个请求的能力。这就是负载均衡的基本思想。目前市场上有多种负载均衡产品,由于其应用的主要技术不同,所反映的特点和*能也就有所不同,根据这些区别,我们可以将它们分为轮询dns、硬件解决方案、协商式处理和流量分发等负载均衡系统。下面我们就来介绍这些基本系统。

轮询dns:轮询dns方案可以说是技术上最简单、应用上方便、结构上最直观的一种负载均衡方案。其基本原理是,在dns服务器中设定对同一个inter主机名的多个ip的映射,在dns收到查询主机名的请求时,系统就会循环地将所有对应的ip逐个返回。这样,就能够将不同的客户端连接定位到不同的ip主机上,也就能够实现比较简单的负载均衡功能。但这种方案有两个致命的缺点,一是只能实现对基于inter主机名请求的负载均衡,而不是ip,如果是基于ip的请求则系统无能为力。二是在群集内有节点发生故障的情况下,dns服务器仍会将这个节点的ip返回给查询方,也就仍会不断地有客户请求试图与已出故障的节点建立连接。在这种情况下,即使手工修改dns服务器的对应设置,将故障节点的ip删除,但由于inter上所有的dns服务器都有缓存机制,所以仍会有成千上万的客户连接不到群集,除非等到所有dns缓存都超时为止。

硬件解决方案:该方案主要是指制造商制造出带有nat(网络转换)功能的高档路由器或*机来实现系统负载均衡功能。所谓nat,就是实现多个私有ip对单个公共ip的转换。该方案的主要缺点,一是由于采用了特殊的硬件,使得整个系统中存在非工业标准部件,极大地影响系统的扩充、维护和升级。二是价格极其昂贵,与软件的解决方案根本是数量级上的差别。三是只能实现对节点系统一级的状态检查,无法细化到服务器一级的检查。

协商式处理:协商式处理又叫并行过滤。这种方案的原理是客户请求会同时被所有的节点所接收,然后所有节点按照一定的规则协商决定由哪个节点处理这个请求。该方案中比较*的特点就是整个群集中没有*的管理节点,所有决定由全体工作节点共同协商作出。这种协商式处理方案的特点是,一、由于各节点间要进行的通信量太大,加重了网络的负担,一般需要增加节点通信的专用网络,这又反过来加大了安装维护的难度和费用;二、由于每个节点都要接收所有的客户请求并进行分析,所以加重了网络驱动层的负担,降低了节点本身的工作效率,同时也使网络驱动层很容易成为节点系统的瓶颈;三、由于要更改网络驱动层的程序,所以并不是一个通用方案,只能够实现对特殊平台的支持;四、在小量节点的情况下协商的效率还可以接受,一旦节点数量增加,通信和协商将变得异常复杂和低效,整个系统的*能会有非线*的大幅度下降。所以此类方案,一般在理论上只允许最多十几个节点;五、无法实现异地节点群集;六、由于群集内没有统一的管理者,所以可能出现混乱的异常现象。

流量分发:流量分发的原理是所有的用户请求首先到达群集的管理节点,管理节点可以根据所有服务节点的处理能力和现状来决定这个请求分发给某个服务节点。当某个服务节点由于硬件或软件原因发生故障时,管理节点能够自动检测到并停止向这个服务节点分发流量。这样,既通过将流量分担而增加了整个系统的*能和处理能力,又可以很好地提高系统的可用*。

在流量分发中,通过将管理节点本身做一个群集,可以消除由于管理节点自身的单一*带来的单一故障点。当然,在某些流量分发系统中,由于所有客户流量都要通过管理节点,也很容易使管理节点成为整个系统的传输瓶颈。但现代新系统,如turbocluster server,由于可通过路由或ip隧道转发机制,成功地解决了这个问题,使得所有对客户响应的流量都由服务节点返回给客户端,并不需要再次通过管理节点。

流量分发的具体实现方法有路由、ip隧道和网络转换三种。

三、目前有关服务器系统的最新技术有哪些

目前服务器系统常用的操作系统主要有三类:Unix、Linux和Windows NT/2000/2003 Server。这些操作系统都达到了C2级安全标准,但同时也存在一些漏洞。如果对这些漏洞不了解或不采取相应措施,操作系统就可能完全暴露给*者。

Unix操作系统由美国贝尔实验室开发,是一种多用户、多任务的通用操作系统。Linux是一套可以免费使用和自由传播的类Unix操作系统,主要用于基于Intel x86系列CPU的计算机。Windows NT系列是微软公司推出的网络操作系统,支持多种网络协议,内置Inter功能,并支持NTFS文件系统。

在服务器的安全配置中,初级篇主要介绍常规的操作系统安全配置,包括十二条基本配置原则。中级篇主要介绍操作系统的安全策略配置,包括十条基本配置原则。高级篇则介绍操作系统安全信息通信配置,包括十四条配置原则。这些配置原则涵盖了从物理安全、服务与端口管理、密码策略、审核策略到加密和防病*等多个方面,旨在提高服务器的整体安全*。