班级 | xxxxxxx | 实验日期 | xxxxxxxxx | 实验成绩 | |||||||||||||||||||||||||||||||||||||
姓名 | xxxxxxxxxx | 学号 | xxxxxxxxxxxx | ||||||||||||||||||||||||||||||||||||||
实验名称 | |||||||||||||||||||||||||||||||||||||||||
实 验 目 的 、 要 求 及 器 材 | 实验目的与要求: ① 掌握RAID0-5的基本组织方式和特点 ② RAID0,1,5配置与简单测试; 实验器材: 虚拟LINUX环境Ubuntu; disksim-4.0; 计算机一台。 | 操作性条件反射||||||||||||||||||||||||||||||||||||||||
实 验 内 容 、 步 骤 08al及 结 果 | 1.编译Disksim 1 通过邮件将disksim-4.和ssd-add-on.zip传送至Ubuntu。 2 Tar -vxzf disksim-4. 3 在 disksim-4.0中编译 make 4 Unzip ../ssd-add-on.zip 5 patch -p1 < ssdmodel/ssd-patch 6 在Ssdmodel中make 7 进入valid,chmod a+x runvalid OK now! 在disksim-4.0中的valid或者ssdmodel/valid 中执行./runvalid即可得到所有文件的测试结果 2.修改土壤学报parv内logorg,模拟RAID0 有效盘数设为5 Raid0.parv中参数设置如下 # component instantiation instantiate [ statfoo ] as Stats instantiate [ ctlr0 .. ctlr4 ] as CTLR0 instantiate [ bus0 ] as BUS0 instantiate [ disk0 .. disk4 ] as HP_C3323A instantiate [ driver0 ] as DRIVER0 instantiate [ bus1 .. bus5 ] as BUS1 # end of component instantiation # system topology 设置冗余模式、编址模式、分配策略等: disksim_logorg org0 { Addressing mode = Array, Distribution scheme = Striped, Redundancy scheme = Noredun, devices = [ disk0 .. disk4 ], Stripe unit = 64, …… } 设置随机概率 Probability of sequential access = 0.2, Probability of local access = 0.4, Probability of read access = 0.66, Probability of time-critical request = 0.1, Probability of time-limited request = 0.3, 存储器总容量为 Storage capacity per device = 2056008*5 = 10280040, 接下来便可进行虚拟测试 ../src/disksim raid0. ascii 0 1 打开查看测试结果: Overall I/O System Total Requests handled: 10002 Overall I/O System Requests per second: 100.928186 Overall I/O System Completely idle time: 11953.034363 0.120616 Overall I/O System Response time average: 24.486686 Overall I/O System Response time std.dev.: 13.542895 Overall I/O System Response time maximum: 137.672973 Overall I/O System Response time distribution < 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 196 332 3551 4960 690 220 44 9 0 0 可见raid0 组织模式的I/O系统平均响应时间为 24.486686 ms 3.修改parv内logorg,模拟RAID1 有效盘数设为4 Raid1.parv中参数设置如下 # component instantiation instantiate [ statfoo ] as Stats instantiate [ ctlr0 .. ctlr7 ] as CTLR0 instantiate [ bus0 ] as BUS0 instantiate [ disk0 .. disk7 ] as HP_C3323A instantiate [ driver0 ] as DRIVER0 instantiate [ bus1 .. bus8 ] as BUS1 # end of component instantiation # system topology [设为8个盘并行的拓扑结构] 冗余模式设为Redundancy scheme = Shadowed, 存储容量 Storage capacity per device = 8224032, 其余设置同raid0 接下来进行虚拟测试 ../src/disksim raid1. ascii 0 1 打开查看测试结果: OVERALL I/O SYSTEM STATISTICS ----------------------------- Overall I/O System Total Requests handled: 9999 Overall I/O System Requests per second: 100.452735 Overall I/O System Completely idle time: 12533.813298 0.125918 Overall I/O System Response time average: 23.141863 Overall I/O System Response time std.dev.: 11.234684 Overall I/O System Response time maximum: 136.662648 Overall I/O System Response time distribution < 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 185 255 3912 4958 553 114 21 1 0 0 可见raid1 组织模式的I/O系统平均响应时间为 23.141863 ms 4.修改parv内logorg,模拟RAID5 有效盘数设为4 Raid0.parv中参数设置如下 # component instantiation instantiate [ statfoo ] as Stats instantiate [ ctlr0 .. ctlr4 ] as CTLR0 instantiate [ bus0 ] as BUS0 instantiate [ disk0 .. disk4 ] as HP_C3323A instantiate [ driver0 ] as DRIVER0 instantiate [ bus1 .. bus5 ] as BUS1 # end of component instantiation # system topology [设为5个盘并行的拓扑结构] 冗余模式设为Redundancy scheme = Parity_rotated, 存储容量 Storage capacity per device = 8224032, 其余设置同raid0 接下来进行虚拟测试 ../src/disksim raid5. ascii 0 1 打开查看测试结果: OVERALL I/O SYSTEM STATISTICS ----------------------------- Overall I/O System Total Requests handled: 10001 Overall I/O System Requests per second: 100.494066 Overall I/O System Completely idle time: 6.907489 0.000069 Overall I/O System Response time average: 56.222291 Overall I/O System Response time std.dev.: 49.033242 Overall I/O System Response time maximum: 480.847859 Overall I/O System Response time distribution < 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 109 164 1496 3273 1722 1503 752 439 324 219 多血质 可见raid5 组织模式的I/O系统平均响应时间为 56.222291 ms 5.探究性试验 设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性 参数包括盘数,条带大小 敏感性指,给定负载,其性能是否会随着参数变化而剧烈变化 本实验采用ssdmodel执行,期间同时加载了<tracefile> 和<synthgen>发现得到的结果反而相差不大,所以后来只加载了ace。 生成测试结果文件语句 ../../src/disksim ssd-postpark.parv ace 0。 在raid0模式下,首先设定定盘数为上海财务管理进修学院9,如下所示: …… …… ] ①改变每个盘的条带大小,观察平均响应时间的变化
通过观察数据可以看出在raid0模式下,Strip unit的大小在8-32之间时系统相应时间均比较快且相差不大,当Strip unit大于32之后,响应时间迅速增长,说明条带变大,raid0磁盘性能降低,但影响不是很大,故敏感性不是太高。 ②保持strip unit=128不变,改变磁盘数目,观察响应时间变化
观察数据可以看出,随着磁盘数目的增多,IO响应时间逐渐降低,说明多个磁盘并行读写可以提高IO性能,而且变化幅度比较大,可见raid0对磁盘数目比较敏感。 *思考题* 考虑以下应用场景,选择你认为合适的RAID设计 A:非线性编辑工作站(做视频编辑的电脑) RAID0 Stripe unit选择在32-64 间。 B:web服务器 RAID5 Stripe unit愉悦和痛苦设于128 左右。 C:代理服务器 RAID1 Stripe unit设置在128 左右。 D:FTP服务器 RAID3 Stripe unit选择在32 到64 区间。 E:一卡通帐户数据服务器 RAID5 Stripe unit选择在64-128 间。 | ||||||||||||||||||||||||||||||||||||||||
总 结 | RAID是使用多个磁盘作为数据并行存取的存储设备,并以内在的冗余性来补偿磁盘故障的一系列技术。这是目前研究相对火热的技术,特别是在信息爆炸的当今社会,海量数据的安全快速存储对磁盘提出了更高的要求,而磁盘冗余阵列可以在低成本的条件下,满足上述要求,故而深受追捧。 在试验过程中,我们系统得学习了raid0-raid5的组织形式和各自的优缺点,使我们对他们各自的应用场合有了一定的了解。同时,学会了使用disksim-4.0软件 模拟磁盘构造,搭建冗余模型,设定各类参数,探究各类冗余模型的优劣以及参数敏感性等问题。 经过实验,我深深的觉得raid5将是未来磁盘冗余策略的发展方向,不管处于数据安全或者成本考虑都具有较高的实用价值,从我们学习的知识来看,raid5也是最复杂的,说明其目前属于研究的热点。 | ||||||||||||||||||||||||||||||||||||||||
附 录 | 无 | ||||||||||||||||||||||||||||||||||||||||
本文发布于:2024-09-22 21:32:01,感谢您对本站的认可!
本文链接:https://www.17tex.com/xueshu/145700.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |