大家好,如果您还对服务器连存储不太了解,没有关系,今天就由本站为大家分享服务器连存储的知识,包括存储和服务器怎样连接的问题都会给大家分析到,还望可以解决大家的问题,下面我们就开始吧!
一、怎么把电脑主机做成一个储存服务器
存储服务器需要对硬盘做raid,这样可以保障存储的安全*。
一般电脑的话只能是做软raid或者是购买raid卡来实现了,当然硬盘也是需要一些的,最起码有2块或者以上。
如果不考虑数据安全的话就跟普通电脑一样,设置共享就可以了,只要保证一直开机就行了。
二、如何配置ivms-4200存储服务器
现在很多机构或者个体经营甚至个人都在自己的房屋中安装监控,但是对于监控系统的配置很多人都不太懂,今天笔者就教大家如何配置视频监控中的存储服务器配置。
方法/步骤
1、首先,我们需要添加视频头,在编码设备中选择添加设备,然后输入相应摄像头的、用户名、密码,必要时还需要输入端口号。
2、存储服务器启动之后,我们需要添加设备类型,首先,设备管理->添加设备类型->存储服务器->ip->客户端,最后输入用户名密码即可。
3、接下来,远程配置->存储->常用,然后选中硬盘,格式化硬盘,最后重启存储服务器。
4、然后控制面板->录像计划,选择监控点,勾选存储服务器录像,配置模板,最后保存,这样我们就保存了录像计划。
5、如果需要多个监控摄像头录像,可以复制其他监控点,录像计划以及服务器录像计划,最后打钩保存即可。
6、然后我们找到远程回放,选择监控点,如果录像成功,在对应日期搜索框上会有橙色的三角形,以后我们就可以使用软件监控录像了。
三、服务器集群如何实现访问一个存储
通过GFS(全局文件系统)——Linux的一个免费集群文件系统——可以创建一个不需要依赖其他服务器的真正稳定的集群。
GFS是一个可扩展的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,但可以提供容错功能。它可以给大量的用户提供总体*能较高的服务
从概念上来说,一个集群文件系统可以允许多个操作系统载入同一个文件系统并可以在同一时间内向同一文件系统写入数据。现在有许多集群文件系统,包括Sun的Lustre,Oracle的OCFS(Oracle集群文件系统),以及Linux的GFS.
有许多方法可以让一个块设备同时被多个服务器所使用。可以分区出一个对多个服务器都可视的SAN(存储局域网)LUN(逻辑单元号),设置好相应的iSCSI(互联网小型计算机系统接口),或使用DRBD(分布式复制块设备)在两台服务器之间复制一个分区。在使用DRBD的时候,将需要在主/主节点中设置好DRBD以使用GFS.
还有一些详细的东西,挺多的,可以联系我
四、两个硬件服务器可以挂载到fc san存储同一个lun吗
楼主说的光纤存储设备应该是SAN存储。
连接SAN存储通常是通过直连或经过SAN*机的,和网络上的光纤不是一个概念。
服务器连接SAN存储时,要使用HBA光纤卡,它是一个插在主板上的板卡设备,HBA卡带有光纤插槽,当HBA卡和存储连接并配置好存储后,在Linux系统本地就可以识别存储设备,好像本地硬盘一样。进行分区、格式化、挂载存储的方式也和本地硬盘是一样的。
五、服务器和存储之间一定要连接光纤*机吗
要根据连接的情况而定,情况如下:
1、如果只有一个服务器和一个存储阵列的话,那么可以在服务器中安装一张HBA卡,之后通过光纤跳线将服务器和存储阵列连接。
2.如果有多台服务器和存储阵列的话,那么中间就必须要加一个光纤*机了,否则SAN中的文件不能实现共享。
3.当然,如果需要的话,也可以将存储阵列接到一个带HBA卡的服务器上面,然后将多台服务器通过以太网*机连接,不过这个样子的话,感觉就不像SAN了,反而像个NAS,*能也不如SAN好,但是成本却比较低的。
扩展资料
光纤*机的使用方法
1、在说明及6台接入*机,可以适应120台到150台左右规模网络使用。
2、8个独立电口,可以接路由器,收费机以及其它服务器等。
3、接入层*机选用RHS4226GS全千兆智能监控型*机,它们提供24个10/100/1000Base-T端口,2个千兆SFP复用端口,具有48Gbps的背板带宽,能够充分满足整个网吧的网络*能需求。
4、RHS4226GS支持端口/IP/MAC一键绑定功能,在PC接入层端口即对各类ARP病*实行防御,可有效的缓解中心网吧光纤*机及网关路由器的ARP处理压力。
参考资料来源:百度百科-光纤*机
六、存储和服务器怎样连接
通过相应介质和接口的线缆连接。
目前存储主要分两大类,NAS和SAN.
对于NAS,用网线连接存储和服务器。
对于SAN,由于有多种介质和接口,如FC,SAS,ISCSI,实际应用中,服务器端安装相应的HBA卡,用相应的线缆连接。
1,较早的存储,用scsi线缆连接服务器。
2,光纤接口的存储,使用FC线缆连接服务器的FC HBA卡
3,用sas线缆连接sas HBA卡。
4,用网线通过*机连接服务器和存储,此时服务器需要iscsi hba卡或把网卡虚拟成hba卡。
在物理连接完成后,需要在存储控制台把空间映射到服务器hba卡wwn,然后就可以在服务器里使用该空间了,就像服务器添加了一块或多块物理硬盘。
七、磁盘阵列如何与服务器连接
一共三种连接方式:SAS、iSCSI、FC(光纤),都需要安装在服务器上HBA(连接主机I/O总线和计算机内存系统的I/O适配器)卡,通过相对应的线缆连接盘柜。
1、SAS连接方式:服务器需要安装SASHBA卡,通过SAS线连接到盘柜上的SAS接口。速率3Gb/S,可以通过SAS*机(此类SAN*机相对其它SAN*机较少)扩展成SAS SAN存储区域网络,如 Powervault MD3000用的是SAS连接方式
2、iSCSI连接方式:服务器需要安装iSCSIHBA卡,通过以太网线连接盘柜上的iSCSI接口,速率1Gb/S,可以通过以太网*机扩展成iSCSI(IP) SAN存储区域网络如:Powervault MD3000 i
3、FC连接方式:服务器需要安装FCHBA卡,通过FC线连接到盘柜上的FC接口(接口上必须安装短波光模块)。速率4/8/10Gb/S,可以通过FC*机(需要安装短波光模块)扩展成FC SAN存储区域网络
目前企业数据存储的主流是FC SAN和IP SAN,前者吞吐量高、*能最好,后者经济实惠、扩展方便。SAS接口的存储一般都用于入门级直连存储,少有扩展成SAS SAN的。传输速率ISCSI< SAS< FC
扩展资料:
磁盘阵列(Redundant Arrays of Independent Drives,RAID),有“独立磁盘构成的具有冗余能力的阵列”之意。
磁盘阵列是由很多价格较便宜的磁盘,组合成一个容量巨大的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能。利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。
磁盘阵列还能利用同位检查(Parity Check)的观念,在数组中任意一个硬盘故障时,仍可读出数据,在数据重构时,将数据经计算后重新置入新硬盘中。
由加利福尼亚大学伯克利分校(University of California-Berkeley)在1988年,发表的文章:“A Case for Redundant Arrays of Inexpensive Disks”。文章中,谈到了RAID这个词汇,而且定义了RAID的5层级。伯克利大学研究目的是反映当时CPU快速的*能。
CPU效能每年大约成长30~50%,而硬磁机只能成长约7%。研究小组希望能找出一种新的技术,在短期内,立即提升效能来平衡计算机的运算能力。在当时,柏克莱研究小组的主要研究目的是效能与成本。
另外,研究小组也设计出容错(fault-tolerance),逻辑数据备份(logical data redundancy),而产生了RAID理论。研究初期,便宜(Inexpensive)的磁盘也是主要的重点,但后来发现,大量便宜磁盘组合并不能适用于现实的生产环境,后来Inexpensive被改为independent,许多独立的磁盘组。
独立磁盘冗余阵列(RAID,redundant array of independent disks)是把相同的数据存储在多个硬盘的不同的地方(因此,冗余地)的方法。通过把数据放在多个硬盘上,输入输出操作能以平衡的方式交叠,改良*能。因为多个硬盘增加了平均故障间隔时间(MTBF),储存冗余数据也增加了容错。
(资料来源:百度百科:磁盘阵列)