这篇文章给大家聊聊关于服务器群组,以及服务器和普通电脑在硬件配置上的区别是什么对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。

一、服务器和普通电脑在硬件配置上的区别是什么

服务器和普通电脑在硬件配置上的区别是什么?

首先从主板开始说主板是分层的服务器的主板用的多层的质量要好很多不容易老化 cpu方面首先服务器的cpu是不要求超频的因为服务器要求最高的就是要稳定超频会导致内部数据与外部数据不统一服务器不像普通电脑作为终端所以必须要求数据统一服务器的cpu一般用志强系列的服务器的主板支持多cpu分担相对于周边的接口也比较多比如说硬盘线口 pci--e插口

服务器的硬件配置和普通电脑有什么区别

CPU:Pc的CPU应用环境一般是解决单个任务,而服务器面向的应用则是数十甚至数百用户同时发出请求时,系统能从容地处理这些任务,所以系统内部的多线程运算能力和*速度就会起到至关重要的作用。

内存:服务器使用的内存要求很严格,必须是具有ECC功能的DRAM、SDRAM或DDRRAM。普通PC由于数据流量小,运算时间短,所以对系统的ECC功能并不十分要求。

硬盘:一般采用SCSI高速硬盘,高档服务器上的硬盘还具备热插拔功能,以便在线更换。

专用的服务器和普通电脑区别是什么?

一、高扩展*

可扩展*是指服务器的配置(内存、硬盘、处理器等)可以在原有基础上很方便地根据需要增加。

为了实现扩展*,服务器的机箱一般都比普通的机箱大一倍以上。设计大机箱的原因有两个:一是机箱内部通风良好;二是机箱设有七八个硬盘托架,可以放置更多硬盘。

服务器的电源输出功率比普通PC大得多,甚至有冗余电源(即两个电源)。机箱电源的D型电源接口有十几个之多,普通PC的机箱只有五六个。

服务器的内存在可以根据需要扩展,一般可以扩展到几GB

二、高可靠*

因为服务器在网络中是连续不断地工作的,因此,服务器的可靠*要求是非常高的,目前,提高可靠*的普通做法是部件的冗条配置。服务器可采用ECC内存、RAID技术、热插拨技术、冗余电源、冗余风扇等做法使服务器具备(支持热插拨功能)容错能力和安全保护能力,从而提高可靠*

硬件的冗余设备支持热插拨功能,如冗余电源风扇等,可以在单个部件夹效的情况下自动切换到备用的设备上,保证系统运行的连续*。RAID技术可保证硬盘在出现问题时在线切换,从而保证了数据的完整*。

三、高处理能力

服务器可能需要同响应数十、数百、数千台客户机的请求,因此,服务器的速度应该比普通的PC快。

决定CPU*能的因素有很多,CPU只是其中一个因素,其它,如硬盘的速度、内存的大小、网卡的数据吞吐能力等,都是制约服务器*能的重要因素。

四、高I/O*能

SCSI技术、RAID技术、高速智能网卡、较大的内存扩充能力都是提高IA架构服务器的I/O能力的有效途径。

五、高无故障运行时间

一般来说,工作服务器的要求是工作时间内(每天8小时,每周5天)没有故障;部门级服务器的要求是每天24小时,每周5天内没有故障;企业服务器要求全年365天,每天24小时都没有故障,服务器随时可用,简称为7x24。

六、高强管理*

IA架构服务器主板上集成了各种传感器,用于检测服务器上的各种硬件设备。配合相应软件,可以远程监测服务器。

七、运行服务器操作系统

服务器是硬件与软件相结合的系统虽然在一台普通PC上安装网络操作系统,也可以称之为服务器,但这台服务器不具备真正服务器的特*。

八、提供网络服务

已经具备了相应硬件平台和操作系统的服务器还不能发挥它的作用。如果要发挥它的作用,必须在网络服务器上安装网络服务软件。

服务器和普通电脑的区别

你可以这样理解

服务器就是计算机群组

服务器相当于N多台电脑

服务器专门提供网络服务的,如或者 ftp等等

普通电脑一般是 Desk桌面型的,工作电脑

服务器和普通PC上的区别

服务器与PC的区别应该从硬件和软件两方面来看,根据应用的不同两者的差别很大,打个比方,PC就是那什么都会的门诊医生,但是医术不是那么精湛,而服务器就应该是某个方面的专家了,处理能力越出

众,它“专”的就越厉害。我先从硬件上,根据各个组件说说他们的不同:

1.CPU服务器CPU的指令一般是采用的RISC(精简指令集)。根据研究,在大多数的应用中,CPU仅仅使用了很少的几种命令,于是研究人员就根据这种情况设计了该指令集,运用集中的各种命令组合来实现各种需求。这种设计的好处就是针对*更强,可以根据不同的需求进行专门的优化,处理效更高。相对应的则是CISC(复杂指令集),他的特点就是尽量把各种常用的功能集成到一块,例如我们常常听到的MMX,SSE,SSE+,3D!NOW!等等都是这种类型的。另外,服务器的CPU设计一般都要考虑它的多路功能,说白了就是好几个甚至上千上万个CPU一起工作的问题,而PC则简单多了,这种多路功能用上实在浪费,而它的价钱也的确是上面兄弟说的,不是谁都能受的了的。(补充:服务器的寻址能力很早前就是64位了;APPEL采用的指令集也是RISC,他是个另类,不过现在已经投靠INTEL了)2.内存。内存在服务器上的原则也上越快越大越好,不过它对纠错和稳定提出了更高的要求,比如ECC("错误检查和纠正"好象没人这么叫的)。我们现在使用的PC上很少有人能够用到1G的内存(玩游戏的不算),而在服务器上,这G级的内存有时也会显着捉襟见肘,记得去年国家发布*最新超级计算机时,他的内存更是达到了1个T;相比内存的速度,人们在应用的时候更优先考虑内存的稳定和纠错能力,只有在保证了这两条,才能再考虑别的东西。

3.硬盘。硬盘*能无论是在PC上还是服务器上,*能的提升一直很缓慢,个人认为,依靠机械的发展,硬盘的发展是不可能出现质的飞跃。由于使用服务器的一般都是企业单位,里面都是保存了大量珍贵数据,这对硬盘就提出了安全稳定的要求,硬盘上出现的相关技术也基本上围绕这两个要求转。比如:数据冗余备份,热插拔等。另外,服务器硬盘必须能做到24*7不间断工作的要求。

4.主板.这个我了解的比较少,很少看到服务器有主板的说法,不过我觉得应该提提服务器的总线设计——多路,就是多个CPU如何能够协调工作。有兴趣建议你看看操作系统方面的书,看老外写的,很好!

5.显卡.除了图形和3D设计(那个人家好象都叫工作站,哪位达人知道请告诉我对不对),服务器上的显卡基本上就是你只要能接上显示器能显示就行!

接下来我说说软件,软件就主要指操作系统,比如我们熟悉的NT,2000 SERVER,2003 SERVER,LINUX,SOLRAIS和UNIX等等,都是专门针对服务器设计的,比如:负载均衡,多路CPU的支持。

服务器与普通电脑之间的区别是什么?

1.稳定*:服务器要求7x24(x365)不间断运行,PC只需要5x8;

2.*能:服务器需要及时响应众多客户端的请求,并提供相应服务,PC一般只由少数人操作;

尤其是网络*能,对PC来讲如果不联网,没有网卡,PC仍是PC,而对服务器来讲没有网卡就不是服务器了,因为,服务器的定义就是在网络中给其它计算机提供服务的计算机系统。

3.扩展*:PC一般不需要很多外插卡,对扩展*要求不高,而服务器一般需要考虑增加网卡、RAID卡、HBA卡等;另外,扩展*还包括,内存、硬盘等存储位、电源,甚至是CPU的扩展,这些更是服务器的特*;

4.网络中的角色:用户操作PC进行,发出服务请求,是客户端;服务器工作在后台,只和发出服务请求的客户机进行通信,是服务提供者;

5.多机协同:服务器可由多台构成一个集群,共同提供服务,PC往往独立工作;

6.图形显示、键盘和鼠标的要求:普通台式机和显示器、键鼠等都是一对一的,而且,一般对显卡*能有要求,服务器不和用户交互对显卡*能基本无要求,一般键盘鼠标显示器是多台共用的。

希望能帮到你

服务器群组 服务器和普通电脑在硬件配置上的区别是什么

我们平常所听说的服务器,有的是从软件服务的角度说的,有的是指的真正的硬件服务器。比如我们说配置一个 Web服务器,就是指在操作系统里实现网站信息发布和交互的一个服务,只要机器能跑操作系统,这个服务器就能在这台机器上实现。有时在要求不高的情况下,我们也确实是用普通 PC来做硬件服务器用的。有人可能要说了,我们既然能用普通 PC来做硬件服务器用,那为什么还要花那么多钱买硬件服务器呢?其实,在硬件服务器和普通 PC之间存在着很大的不同!任何产品的功能、*能差异,都是为了满足用户的需求而产生的。硬件服务器的没工作环境需要它长时间、高速、可靠的运行,不能轻易断电、关机、停止服务,即使发生故障,也必须能很快恢复。所以服务器在设计时,必须考虑整个硬件架构的高效、稳定*,比如总线的速度,能安装多个 CPU,能安装大容量的内存,支持 SCSI高速硬盘及 Raid,支持阵列卡,支持光网卡,能支持多个 USB设备。有的服务器设计有双电源,能防止电源损坏引起的当机。服务器的维护和我们普通的 PC也不相同。服务器的生产厂家都是国际上大的计算机厂家,他们对服务器都做了个*化设计,比如服务器的硬件状态指示灯,只要观察一下灯光的颜色就能判断故障的部位。比如 BIOS,里面的程序功能要比 PC完善的多,可以保存硬件的活动日志,以利于诊断故障、消除故障隐患。有的厂家的服务器在拆机维修时,根本不需要螺丝刀,所有配件都是用塑料卡件固定的。稍微好点的服务器一般都需要配接外部的存储设备,比如盘阵和 SAN等,服务器都有管理外部存储的能力,以保证数据安全和可靠、稳定的协同工作。为了提高服务器的可用*和可靠*,服务器还需要支持集群技术,就是多台机器协同工作,提供负载均衡,只要其中有一台服务器正常,服务就不会停止!服务器的功能还有很多!这些都是它比普通 PC好的地方,好的东西它的设计和生产就需要消耗技术和生产成本,价格自然就高。再说到前面的软件服务器和硬件服务器 2个概念,自然用真正的硬件服务器来提供我们的软件服务才是最合适的,才能真正发挥服务的最大*能。哈哈~~以后买服务器不要可惜小钱了吧?专业做效果图的简称图型工作站。“图形工作站”是一种专业从事图形、图像(静态)、图像(动态)与视频工作的高档次专用电脑的总称。从工作站的用途来看,无论是三维动画、数据可视化处理乃至cad/cam和eda,都要求系统具有很强的图形处理能力,从这个意义上来说,可以认为大部分工作站都用作图形工作站。当然图型工作站需要*能比较强悍的电脑来完成任务。显卡、CPU和内存一样都不能差。至于你说的高配这个东西真给不出具体的参数,要看你来完成那些工作的。可以流畅快地完成你的专业制作我觉得就可以了,没有盲目追求高配置的必要。

VPS服务器和普通电脑有什么区别?

1、VPS主机是介于虚拟主机和独立服务器之间的折中方案。

2、 VPS服务器还是和其他用户分享服务器资源,比如CPU和内存,但文件系统是完全分开的。也就是说从文件系统角度看,VPS用户完全独立,看不到这台机器的其他用户。对VPS用户来说,其功能和使用方法与真正的整体租用是完全一样的。

3、同时,CPU、内存和其他服务器资源的划分方法与虚拟主机不同,各个VPS主机用户有自己固定的CPU、内存和其他资源,互不干扰。也就是说,VPS上的任何一个用户只能使用划分给自己的那部分资源,而不会用完整台服务器的资源,也就不会影响其他用户。

4、vps是属于服务器,而普通电脑则是针对个人用户。

同配置的服务器和普通电脑哪个*能更好

首先服务器的主要作用是处理数据,它不需要渲染

所以一般服务器都是多核低频 CPU,很多的CPU组成一个服务器。

家用普通电脑要兼顾影音娱乐,需要渲染高频的CPU。

还要用显卡来加速渲染。

所以你说的*能主要是干嘛。

二、一台服务器可以带多少个云终端

一台中等配置的服务器带个50个云终端进行正常的上网办公和教学是没有问题的。

首先,我们在基于Windows系统底层的基础上进行了再次的研发和创新的,通过在服务器上安装操作系统和软件,50个云终端同连接服务器上公有的操作系统和软件使用的,同时50个云终端用户可以独立云终端安装在服务器上的系统和软件而互不干扰,并且可以达到媲美i3电脑*能,完美适应办公,教学等应用场景不卡顿。

其次,而对于通过协议连接服务器使用云终端我们也同样作出了研发和创新的,通过自研的DDP动态传输协议,对图形算法等进行了大量的优化,不仅使云终端在通过协议连接服务器使用时可以达到i3电脑*能,同时更是简化了一些安装和维护上的步骤,采用一键式的安装10分钟就可快速完成50个用户的部署,让不懂电脑的用户也能轻松掌握的。

第三,有人就会问了说了这么多那么需要什么样的云终端和服务器才可以的呢?我们知道云终端是不进行计算和数据存储的,所以对于云终端的配置我们只需要采用禹龙YL-A100系列的ARM云终端就可以的,而对于服务器的配置我们一般是建议采用(2颗Intel®XeonE5-2600系列12核处理器;内存:96G;960G的固态硬盘做系统盘;4T的机械存储盘)这样的服务器配置的,基本上就可以实现50个云终端用户的需求的。

当然了这里说的50个云终端只需要一台服务器是针对于办公应用相对简单的场景来说的,对于应用非常复杂是一些厂家来说对于云终端和服务器的要求还是会更高一些的。

三、什么是CDN服务啊

什麼是CDN?CDN的特点是什麼?

CDN的全称是Content Delivery Network,即内容分发网络。其目的是通过在现有的Inter中增加一层新的网络架构,将网站的内容发布到最接近用户的网络"边缘",使用户可以就近取得所需的内容,解决Inter网络拥挤的状况,提高用户访问网

站的响应速度。从技术上全面解决由于网络带宽小、用户访问量大、网点分布不均等原因所造成的用户访问网站响应速度慢的问题。

实际上,内容分发布网络(CDN)是一种新型的网络构建方式,它是为能在传统的IP网发布宽带丰富媒体而特别优化的网络覆盖层;而从广义的角度,CDN代表了一种基于质量与秩序的网络服务模式。简单地说,内容发布网(CDN)是一个经策略*部署的整体系统,包括分布式存储、负载均衡、网络请求的重定向和内容管理4个要件,而内容管理和全局的网络流量管理(Traffic Management)是CDN的核心所在。通过用户就近*和服务器负载的判断,CDN确保内容以一种极为高效的方式为用户的请求提供服务。总的来说,内容服务基于缓存服务器,也称作代理缓存(Surrogate),它位于网络的边缘,距用户仅有"一跳"(Single Hop)之遥。同时,代理缓存是内容提供商源服务器(通常位于CDN服务提供商的数据中心)的一个透明镜像。这样的架构使得CDN服务提供商能够代表他们客户,即内容供应商,向最终用户提供尽可能好的体验,而这些用户是不能容忍请求响应时间有任何延迟的。据统计,采用CDN技术,能处理整个网站页面的70%~95%的内容访问量,减轻服务器的压力,提升了网站的*能和可扩展*。

与目前现有的内容发布模式相比较,CDN强调了网络在内容发布中的重要*。通过引入主动的内容管理层的和全局负载均衡,CDN从根本上区别于传统的内容发布模式。在传统的内容发布模式中,内容的发布由ICP的应用服务器完成,而网络只表现为一个透明的数据传输通道,这种透明*表现在网络的质量保证仅仅停留在数据包的层面,而不能根据内容对象的不同区分服务质量。此外,由于IP网的"尽力而为"的特*使得其质量保证是依靠在用户和应用服务器之间端到端地提供充分的、远大于实际所需的带宽通量来实现的。在这样的内容发布模式下,不仅大量宝贵的骨干带宽被占用,同时ICP的应用服务器的负载也变得非常重,而且不可预计。当发生一些热点事件和出现浪涌流量时,会产生局部热点效应,从而使应用服务器过载退出服务。这种基于中心的应用服务器的内容发布模式的另外一个缺陷在于个*化服务的缺失和对宽带服务价值链的扭曲,内容提供商承担了他们不该干也干不好的内容发布服务。

纵观整个宽带服务的价值链,内容提供商和用户位于整个价值链的两端,中间依靠网络服务提供商将其串接起来。随著网际网路工业的成熟和商业模式的变革,在这条价值链上的角色越来越多也越来越细分。比如内容/应用的运营商、托管服务提供商、骨干网络服务提供商、接入服务提供商等等。在这一条价值链上的每一个角色都要分工合作、各司其职才能为客户提供良好的服务,从而带来多赢的局面。从内容与网络的结合模式上看,内容的发布已经走过了ICP的内容(应用)服务器和IDC这两个阶段。IDC的热潮也催生了托管服务提供商这一角色。但是,IDC并不能解决内容的有效发布问题。内容位于网络的中心并不能解决骨干带宽的占用和建立IP网络上的流量秩序。因此将内容推到网络的边缘,为用户提供就近*的边缘服务,从而保证服务的质量和整个网络上的访问秩序就成了一种显而易见的选择。而这就是内容发布网(CDN)服务模式。CDN的建立解决了困扰内容运营商的内容"集中与分散"的两难选择,无疑对于构建良好的网际网路价值链是有价值的,也是不可或缺的最优网站加速服务。

目前,国内访问量较高的大型网站如新浪、网易等,均使用CDN网络加速技术,虽然网站的访问巨大,但无论在什麼地方访问都会感觉速度很快。而一般的网站如果服务器在网通,电信用户访问很慢,如果服务器在电信,网通用户访问又很慢。

它采取了分布式网络缓存结构(即国际上流行的web cache技术),通过在现有的Inter中增加一层新的网络架构,将网站的内容发布到最接近用户的cache服务器内,通过DNS负载均衡的技术,判断用户来源就近访问cache服务器取得所需的内容,解决Inter网络拥塞状况,提高用户访问网站的响应速度,如同提供了多个分布在各地的加速器,以达到快速、可冗余的为多个网站加速的目的。

CDN的特点

1、本地Cache加速提高了企业站点(尤其含有大量图片和静态页面站点)的访问速度,并大大提高以上*质站点的稳定*

2、镜像服务消除了不同运营商之间互联的瓶颈造成的影响,实现了跨运营商的网络加速,保证不同网络中的用户都能得到良好的访问质量。

3、远程加速远程访问用户根据DNS负载均衡技术智能自动选择Cache服务器,选择最快的Cache服务器,加快远程访问的速度

4、带宽优化自动生成服务器的远程Mirror(镜像)cache服务器,远程用户访问时从cache服务器上读取数据,减少远程访问的带宽、分担网络流量、减轻原站点WEB服务器负载等功能。

5、集群抗攻击广泛分布的CDN节点加上节点之间的智能冗于机制,可以有效地预防**以及降低各种D.D.o.S攻击对网站的影响,同时保证较好的服务质量。