原帖由 coredump 于 25-6-2009 14:18 发表
如果确定上Cluster的话,单机甚至可以不考虑RAID, 或者每个单机做RAID 0以提高性能,可靠性上面采用集群文件系统来保证, 除了Redhat的那个GFS外,Sun开发的Lustre也被很多大公司采用。
Download the Lustre Fil ...
原帖由 ubuntuhk 于 25-6-2009 14:27 发表
这个确实不错,实际上我还可以再增加一台机器,一共五台机器到这个集群里面,不过就是担心如果有节点挂掉怎么处理,单个节点挂掉估计问题不大,2个以上节点挂掉,是不是系统就瘫痪了?
Availability
In a cluster file system, the failure of one part of the file system should not bring everything
to a halt. Common file system failures include both disk drive failures and server crashes.
The cluster file system should be resilient against such failures; it must ensure that no data
is lost and that all computations continue unimpeded
Production-Quality Reliability
Meeting uptime requirements Lustre is currently deployed in both large and small clusters aroundthe world, meeting the uptime requirements of business-critical andnational-security applications. In fact, more than 100 teraflopsworldwide are deployed in production environments where Lustre is usedto manage data. No point of failure The system delivers production-quality stability and failover, with nosingle point of failure. Lustre organizes all servers in active-activefailover pairs. Together with protocol interoperability betweenversions, live cluster upgrades are now routine. High-availability configuration Lustre's just-mount configuration feature simplifies configuration byroutinely formatting and mounting server devices and then aggregatingthem into a global high-availability cluster file system.
原帖由 wellhome 于 25-6-2009 16:11 发表
raid6可以容忍2个盘同时挂.
raid5+1 可以容忍2个盘不同时挂.
另外大分区是不是可以尝试zfs?现在好像zfs有linux的port了?
原帖由 coredump 于 25-6-2009 14:35 发表
我觉得有可能有网线的原因,还有可能是网卡和交换机自动协商速度失败,看看调整下参数或者强制启动下千兆试试。
BTW,服务器和交换机之间为什么不用光纤。
原帖由 coredump 于 25-6-2009 16:17 发表
ZFS的Linux port是建立在FUSE上的,不能在生产环境使用的,性能太差了。ZFS不改Licsense的话,不可能port到Linux。
不过FreeBSD倒是已经完整支持ZFS了,我也建议使用ZFS, OS用FreeBSD或者Solaris。
原帖由 mayabin 于 25-6-2009 18:50 发表
回答你的一个问题,千兆网卡只有百兆速度,如果你用双绞线的话,就是百兆的。 你查一下资料,做SAN或者NAS的都用的光纤传输。所以说网线是瓶颈。
原帖由 mayabin 于 25-6-2009 18:50 发表
回答你的一个问题,千兆网卡只有百兆速度,如果你用双绞线的话,就是百兆的。 你查一下资料,做SAN或者NAS的都用的光纤传输。所以说网线是瓶颈。
千兆网线制作方法
网友:lenlydia 发布于: 2009.01.19 11:23 (共有条评论) 查看评论 | 我要评论
作为资料保存
千兆5类或超5类双绞线的形式与百兆网线的形式相同,也分为直通和交*两种。直通网线与我们平时所使用的没有什么差别,都是一一对应的。但是传统的百兆网络只用到4 根线缆来传输,而千兆网络要用到8 根来传输,所以千兆交*网线的制作与百兆不同,制作方法如下:1对3,2对6,3对1,4对7,5对8,6对2,7对4,8对5
例如:
一端为:半橙、橙,半绿、兰,半兰、绿,半棕、棕;
另一端:半绿、绿,半橙、半棕、棕,橙,兰,半兰
千兆网线的做法
千兆5类或超5类双绞线的形式与百兆网线的形式相同,也分为直通和交*两种。直通网线与我们平时所使用的没有什么差别,都是一一对应的。但是传统的百兆网络只用到4 根线缆来传输,而千兆网络要用到8 根来传输,所以千兆交*网线的制作与百兆不同,制作方法如下:1对3,2对6,3对1,4对7,5对8,6对2,7对4,8对5
例如:
一端为:半橙、橙,半绿、兰,半兰、绿,半棕、棕;
另一端:半绿、绿,半橙、半棕、棕,橙,兰,半兰
2.AVAYA(CommScope)
单层结构,处理好十字芯,套好扣环,导入导线框架扣好,裁齐.
尾扣在测试通过后用502固定死,外套也要用502固定死.
全过程要小心,仔细,
开绞距离越短越好,1.千兆主干交换机,接千兆分交换机,用什么线? 六类线(CAT6)
2.千兆主干交换机,接百兆分交换机,用什么线? 买带两1000Mbps铜口的26口交换机 .六类线(CAT6)
3.千兆主干交换机,接新服务器,用什么线? .六类线(CAT6)
4.千兆主干交换机,接老服务器,用什么线? 超五类(CAT5E).,跑100Mbps
5.千兆分交换机,接新机器,用什么线? .预算多就用六类线(CAT6),起码要用超五类(CAT5E).
6.百兆分交换机,接旧机器,用什么线?用超五类.原来有可以不动,质量太差的话剪掉
,全新布过超五类(CAT5E),
以上六类线配六类头,超五类配合屏蔽头(也不贵) , 保证线和头都要正品!!!
超五类头用AMP压线钳压制,六类头用机压或自做工具压制.线序均按照568B顺序排列,然后用相关检测工具进行测试。
走线要设计合理,保证合适的线缆弯曲半径,两端留出的冗余线缆要整理保护好,盘线时要顺着原来的旋转方向,做好标注.
注意管径和线槽的填充度
6类线做法 1对3,2对6,3对1,4对7,5对8,6对2,7对4,8对5
白橙 橙 白绿 蓝 白蓝 绿 白棕 棕
1 2 3 4 5 6 7 8
白绿 绿 白橙 白棕 棕 橙 蓝 白蓝
这样速度至少达到 300M
针对上面的方法我们作过测试:
环境:H3C千兆交换机,P4 3.0CPU 希捷160G 8M 硬盘 ,超5类双绞线长5米。
文件对拷速度达到 32M/S
原帖由 mayabin 于 25-6-2009 18:53 发表
再一个,如果你想达到这样的目的,关注的技术不应该局限在文件系统,Raid以及集群软件上。建议你搜索云计算的技术(cloud computing),比如亚马逊的,Google的,有些现成的技术应该能帮到你。
原帖由 mayabin 于 25-6-2009 18:53 发表
再一个,如果你想达到这样的目的,关注的技术不应该局限在文件系统,Raid以及集群软件上。建议你搜索云计算的技术(cloud computing),比如亚马逊的,Google的,有些现成的技术应该能帮到你。
原帖由 ubuntuhk 于 25-6-2009 19:25 发表
对不起,我现在还没搞清云计算具体是什么概念。
我现在也在写一些基于这种cluster上的web应用,不过大体的做法也就是前端web服务器+load balance proxy+后端运算/存储集群。
原帖由 ubuntuhk 于 25-6-2009 19:52 发表
将来要做的应用是基于集群上的语音(或图像)识别处理,特点:
1.不需要太大的存储空间
2.需要大量的网络带宽,以接受并发连接
3.需要大量的运算单元,将接收到的语音进行处理,并通过web将结果返回给用户
4.需要部署在不同的数据中心,要定时进行数据同步
这个应用我希望能应用云计算的概念和系统。
原帖由 ubuntuhk 于 25-6-2009 17:47 发表
对的,目前没有SAN或NAS,4-5台2950的服务器,每台各带6*1T硬盘,希望能建立一个可扩展的存储系统和集群,充分利用集群里各个CPU的性能,并且将来可以增加集群节点和NAS/SAN。
是不是这种分布式存储也会影响每个节 ...
原帖由 akai 于 25-6-2009 23:16 发表
ok. yahoo google这些分布式存储 如果节点A要访问的数据 存放在节点B和节点C那里. A是通过什么联接方式取得B和C的数据呢?网卡?
这样作的好处 是不是说把 SAN中的需要i/o计算的部分 分摊到各个node上了?
...
原帖由 akai 于 26-6-2009 10:12 发表
u版的这个环境需要cluster软件
问题
1.一般的cluster是不是都自带了file system? 比如oracle 的RAC
2.有没有对file system透明的 cluster软件.比如我装了lustre作为file system. 然后上面跑cluster 软件?
核心 ...
原帖由 coredump 于 25-6-2009 23:27 发表
Google的MapReduce算法会对计算节点和访问对应的数据做优化,基本上绝大部分的计算都是在数据块所在的机器上进行的,尽可能的减少了网络IO的开销。而且,一般同一份数据会存在至少3个不同的地方,这样就可以在这 ...
原帖由 akai 于 26-6-2009 12:24 发表
海量小文件 最可怕.
没有好的办法. 只能金钱换效率.
你如果用NAS
1.升千兆交换机. 几千块可以搞定
2.买6类线 不能自己作
3.网卡作bonding. 尤其是作nfs的那台 能bonding 4个口更加好.
原帖由 ubuntuhk 于 26-6-2009 11:48 发表
在coredump的指引下,我对相关的资料做了一些了解,我个人比较倾向用mosix+NFS或者GFS,其实在我目前这个应用里面,在某一个时刻,很可能会被单个训练程序独占运行,这样我可以控制这个训练程序只从其中某台机器的存 ...
原帖由 ubuntuhk 于 26-6-2009 11:48 发表
我的应用是要读取一大堆小文件,每次读取一个小文件(约占20%时间),然后运行计算程序(约占80%时间)。
针对这样的应用和目前的硬件条件,大家建议怎样做更好?
原帖由 ubuntuhk 于 25-6-2009 19:40 发表
嗯,好,不过现在先要解决系统搭建的问题,如果需要做云计算开发,系统搭建上需要注意什么事项吗?还是非得用google、amazon的云计算服务,我可租不起![]()
![]()
![]()
原帖由 valpa 于 26-6-2009 15:06 发表
我认识一家上海公司ChinaNetCloud:http://www.chinanetcloud.com/en
有啥需要咨询的,等7月20号左右上海linux聚会的时候,我可以代为咨询
原帖由 yuba 于 26-6-2009 16:46 发表
"本机可以用大胆的RAID 0进行提速,速度更快"
- 不要神话raid0的速度。raid0是同时从2块盘上读取,x(x>=4)块盘的raid6是同时从x块盘上读取。
"大部分数据在本机上(减少网络IO)"
"可以容许2个节点挂掉而不影响 ...
原帖由 ubuntuhk 于 26-6-2009 11:48 发表
不过我昨天发现,SATA的硬盘读写效率对CPU的占用相当大,如果我从A机拷贝一个10GB文件到B机,能保持60MB的传输速率,但是A机的CPU占用率要占去其中一个cpu core的100%,而且A机运行速度明显降低(可能因为磁盘带宽被占用的原因),这样可能会带来一定问题。
原帖由 yuba 于 26-6-2009 21:26 发表
cpu比io更intensive,所以读取部分不应该成为瓶颈
优先考虑是否可以利用多线程,同时处理多个已经读入的小文件
设计上可以考虑生产-消费模式,把读入和处理从逻辑上分开
今后再考虑如何利用多核,改进 ...
原帖由 yuba 于 26-6-2009 19:42 发表
拷贝用的是什么协议,如果不是ftp协议的话最好用ftp再测一下
从a机拷贝到b机,a机是硬盘读取和网络写出的动作。很难想象60MB/s的读操作占了一个现代处理器一个核心的100%,所以我更倾向是协议层或者是网卡驱动 ...
[root@server7 ~]# hdparm -Tt /dev/sda
/dev/sda:
Timing cached reads: 24552 MB in 1.99 seconds = 12324.57 MB/sec
Timing buffered disk reads: 758 MB in 3.00 seconds = 252.55 MB/sec
[root@server4 ~]# hdparm -Tt /dev/sda
/dev/sda:
Timing cached reads: 24452 MB in 1.99 seconds = 12273.72 MB/sec
Timing buffered disk reads: 1108 MB in 3.00 seconds = 369.23 MB/sec
[root@server5 ~]# hdparm -Tt /dev/sda
/dev/sda:
Timing cached reads: 22408 MB in 1.99 seconds = 11244.20 MB/sec
Timing buffered disk reads: 834 MB in 3.00 seconds = 277.95 MB/sec
原帖由 coredump 于 26-6-2009 19:09 发表
其实采用RAID0对UB现在手头的机器来说还有一个问题,就是SATA的IO 导致的CPU占有率问题,如果采用SCSI硬盘的话就会好的多。不过没有试验我只是猜测。
欢迎光临 FreeOZ论坛 (https://www.freeoz.org/bbs/) | Powered by Discuz! X3.2 |