计算机系统结构实验报告-存储系统RAID 性能测试

计算机系统结构
实验报告
班级:xxxxxxxxxxxxxxxx 
姓名:xxxxxx           
学号:2xxxxxxxxxxxxxx 
报告完成时间20xxxxxxxx
计算机系统结构实验报告
操作性条件反射
班级
xxxxxxx
实验日期
xxxxxxxxx
实验成绩
姓名
xxxxxxxxxx
学号
xxxxxxxxxxxx
实验名称
存储系统RAID 性能测试
实验目的与要求:
掌握RAID0-5的基本组织方式和特点
RAID0,15配置与简单测试;
  探究RAID的小写性能或参数敏感性
实验器材:
虚拟LINUX环境Ubuntu
disksim-4.0
计算机一台。
08al
1.编译Disksim
1 通过邮件将disksim-4.ssd-add-on.zip传送至Ubuntu
2 Tar -vxzf disksim-4.
3  disksim-4.0中编译 make
4 Unzip ../ssd-add-on.zip
5 patch -p1 < ssdmodel/ssd-patch
6 Ssdmodelmake
7 进入validchmod a+x runvalid
OK now
disksim-4.0中的valid或者ssdmodel/valid 中执行./runvalid即可得到所有文件的测试结果
2.修改土壤学报parvlogorg,模拟RAID0
  有效盘数设为5
Raid0.parv中参数设置如下
# component instantiation
instantiate [ statfoo ] as Stats
instantiate [ ctlr0 .. ctlr4 ] as CTLR0
instantiate [ bus0 ] as BUS0
instantiate [ disk0 .. disk4 ] as HP_C3323A
instantiate [ driver0 ] as DRIVER0
instantiate [ bus1 .. bus5 ] as BUS1
# end of component instantiation
# system topology
[设为5个盘并行的拓扑结构]
  设置冗余模式、编址模式、分配策略等:
disksim_logorg org0 {
  Addressing mode = Array,
  Distribution scheme = Striped,
  Redundancy scheme = Noredun,
  devices = [ disk0 .. disk4 ],
  Stripe unit  =  64,
  ……
  }
   
  设置随机概率
      Probability of sequential access =  0.2,
      Probability of local access =  0.4,
      Probability of read access =  0.66,
      Probability of time-critical request =  0.1,
  Probability of time-limited request =  0.3,
  存储器总容量为
  Storage capacity per device  = 2056008*5 = 10280040,
  接下来便可进行虚拟测试
../src/disksim raid0. ascii 0 1
  打开查看测试结果:
Overall I/O System Total Requests handled:    10002
Overall I/O System Requests per second:      100.928186
Overall I/O System Completely idle time:      11953.034363      0.120616
Overall I/O System Response time average:    24.486686
Overall I/O System Response time std.dev.:    13.542895
Overall I/O System Response time maximum:    137.672973
Overall I/O System Response time distribution
  <  5    < 10    < 20    < 40    < 60    < 90    <120    <150    <200    200+
196    332    3551    4960    690    220      44      9      0      0
    可见raid0 组织模式的I/O系统平均响应时间为 24.486686 ms
3.修改parvlogorg,模拟RAID1
  有效盘数设为4
  Raid1.parv中参数设置如下
# component instantiation
instantiate [ statfoo ] as Stats
instantiate [ ctlr0 .. ctlr7 ] as CTLR0
instantiate [ bus0 ] as BUS0
instantiate [ disk0 .. disk7 ] as HP_C3323A
instantiate [ driver0 ] as DRIVER0
instantiate [ bus1 .. bus8 ] as BUS1
# end of component instantiation
# system topology
[设为8个盘并行的拓扑结构]
冗余模式设为Redundancy scheme = Shadowed,
    存储容量 Storage capacity per device  =  8224032,
    其余设置同raid0
    接下来进行虚拟测试
../src/disksim raid1. ascii 0 1
打开查看测试结果:
OVERALL I/O SYSTEM STATISTICS
      -----------------------------
Overall I/O System Total Requests handled:    9999
Overall I/O System Requests per second:      100.452735
Overall I/O System Completely idle time:      12533.813298      0.125918
Overall I/O System Response time average:    23.141863
Overall I/O System Response time std.dev.:    11.234684
Overall I/O System Response time maximum:    136.662648
Overall I/O System Response time distribution
  <  5    < 10    < 20    < 40    < 60    < 90    <120    <150    <200    200+
185    255    3912    4958    553    114      21      1      0      0
    可见raid1 组织模式的I/O系统平均响应时间为 23.141863 ms
4.修改parvlogorg,模拟RAID5
  有效盘数设为4
Raid0.parv中参数设置如下
# component instantiation
instantiate [ statfoo ] as Stats
instantiate [ ctlr0 .. ctlr4 ] as CTLR0
instantiate [ bus0 ] as BUS0
instantiate [ disk0 .. disk4 ] as HP_C3323A
instantiate [ driver0 ] as DRIVER0
instantiate [ bus1 .. bus5 ] as BUS1
# end of component instantiation
# system topology
[设为5个盘并行的拓扑结构]
    冗余模式设为Redundancy scheme = Parity_rotated,
    存储容量 Storage capacity per device  =  8224032,
    其余设置同raid0
  接下来进行虚拟测试
  ../src/disksim raid5. ascii 0 1
  打开查看测试结果:
OVERALL I/O SYSTEM STATISTICS
-----------------------------
Overall I/O System Total Requests handled:    10001
Overall I/O System Requests per second:      100.494066
Overall I/O System Completely idle time:      6.907489      0.000069
Overall I/O System Response time average:    56.222291
Overall I/O System Response time std.dev.:    49.033242
Overall I/O System Response time maximum:    480.847859
Overall I/O System Response time distribution
  <  5    < 10    < 20    < 40    < 60    < 90    <120    <150    <200    200+
109    164    1496    3273    1722    1503    752    439    324    219
    多血质 可见raid5 组织模式的I/O系统平均响应时间为 56.222291 ms
5.探究性试验
设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性
参数包括盘数,条带大小
敏感性指,给定负载,其性能是否会随着参数变化而剧烈变化
  本实验采用ssdmodel执行,期间同时加载了<tracefile> <synthgen>发现得到的结果反而相差不大,所以后来只加载了ace
    生成测试结果文件语句 ../../src/disksim ssd-postpark.parv
    ace 0
raid0模式下,首先设定定盘数为上海财务管理进修学院9,如下所示:
……
……
]
①改变每个盘的条带大小,观察平均响应时间的变化
Strip unit
8
16
32
64
128
Res timems
0.483777
0.484296
0.487460
0.493265
0.601714
    通过观察数据可以看出在raid0模式下,Strip unit的大小在8-32之间时系统相应时间均比较快且相差不大,当Strip unit大于32之后,响应时间迅速增长,说明条带变大,raid0磁盘性能降低,但影响不是很大,故敏感性不是太高。
②保持strip unit=128不变,改变磁盘数目,观察响应时间变化
盘数
2
4
6
8
9
时间(ms
1.946462
1.030371
0.772745
0.634707
0.601714
    观察数据可以看出,随着磁盘数目的增多,IO响应时间逐渐降低,说明多个磁盘并行读写可以提高IO性能,而且变化幅度比较大,可见raid0对磁盘数目比较敏感。
*思考题*
考虑以下应用场景,选择你认为合适的RAID设计
A:非线性编辑工作站(做视频编辑的电脑)
RAID0  Stripe unit选择在3264 间。
Bweb服务器
RAID5 Stripe unit愉悦和痛苦设于128 左右。
C:代理服务器
RAID1 Stripe unit设置在128 左右。
DFTP服务器
RAID3 Stripe unit选择在32 64 区间。
E:一卡通帐户数据服务器
RAID5 Stripe unit选择在64128 间。
RAID是使用多个磁盘作为数据并行存取的存储设备,并以内在的冗余性来补偿磁盘故障的一系列技术。这是目前研究相对火热的技术,特别是在信息爆炸的当今社会,海量数据的安全快速存储对磁盘提出了更高的要求,而磁盘冗余阵列可以在低成本的条件下,满足上述要求,故而深受追捧。
在试验过程中,我们系统得学习了raid0-raid5的组织形式和各自的优缺点,使我们对他们各自的应用场合有了一定的了解。同时,学会了使用disksim-4.0软件
模拟磁盘构造,搭建冗余模型,设定各类参数,探究各类冗余模型的优劣以及参数敏感性等问题。
    经过实验,我深深的觉得raid5将是未来磁盘冗余策略的发展方向,不管处于数据安全或者成本考虑都具有较高的实用价值,从我们学习的知识来看,raid5也是最复杂的,说明其目前属于研究的热点。

本文发布于:2024-09-22 21:32:01,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/145700.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:磁盘   时间   参数   测试   并行
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议