先给大家分享一个链接,是国外Techreport发起的一个SSD测试:
http://techreport.com/review/274 ... -freaking-petabytes
这个测试持续到最后,总计向SSD内写入了2PB的内容,也就是总共向SSD内写入了2000000GB的数据。
存活下来的的两款硬盘分别是金仕顿HyperX 3K 240GB以及三星840 Pro 256GB,当然金仕顿那款是带数据压缩的,写入内容实际没这么多,但三星那款是实实在在的写入了2PB数据的。
可能大家没概念,2PB代表什么?代表把256GB的三星840 Pro循环写入7812次,如果你每天都把这硬盘写满一次,那需要21年才能达到这个写入量,大家扪心自问一下,你有没有这个写入量?
或许有人会说,这两款都是MLC的,但是MLC之前坛子里某某人说只有1000次写入,这里我就不打脸了。
或许又会有人说,TLC就没这么幸运了,那好,您也可以去看看这篇文章,三星840EVO 250G在写入900TB后出现无法写入的情况,也就是说你每天把这硬盘写满一次,也要将近十年才能把他的TLC闪存写坏。
而且,测试中最先挂掉的是金仕顿HyperX 3K 240G,写入到了728TB的时候就挂了,当然这货支持数据压缩,只是被编辑特意关了,而开了数据压缩的同款一直坚持到了最后还没挂。
第二个挂掉的是Intel SSD 335 240G,写入到了750TB的时候也挂了。
上面两款还都是MLC闪存的,所以说别以为MLC有多牛,虽然从技术参数上讲MLC是高于TLC很多,但是不代表寿命就一定长,这和固件优化以及生产工艺都是有关的。强大如Intel的工艺,MLC也在750TB的地方挂了,而三星的840 EVO 250G坚持到了900TB的写入量。
最后,还是基于TLC来说,测试中唯一一款TLC闪存的三星840 EVO 250G,挂掉是在900TB的数据量,而第一次出现重分配错误是在200TB的数据量。也就是说,你每天全盘写满一次,要把他用到彻底坏掉(类似IP6无法开机的故障)需要9.86年,而即使按照第一次出现重分配扇区的200TB的量来算,每天写满一次,也要2.19年才可能出现坏道。
注意,这个测试是用SATA口的极限速度连续不停写入数据,正常使用中你根本不可能有这么大的写入量,更不可能有这么大的写入强度。就算你保持每天都下一部蓝光原盘ISO--60G容量吧,按照上面的TLC固态硬盘出现错误的数据,大家可以算算,200TB的时候出现第一个坏道,那就要9年才会出现坏道,注意只是坏道,不是坏了,要真搞坏需要大的多的写入量。而一款64GB的iPhone6,即使使用TLC,每天写入60GB的数据,也要两年多一点才会出现坏快,现在所有的闪存都有冗余机制,因此出现一个坏块立马会被冗余块替换掉,根本就不会影响到使用。要把这个64G闪存用挂掉也基本不可能。说实话,主控挂掉的可能性远远高于闪存。
楼主是干IDC架构设计和运维的,可以告诉大家的是,现在稍微上点档次的企业所用的存储都用闪存做缓冲区,普通硬盘做存储盘,在数据中心的写入强度下,SSD都能撑住,何况是普通个人使用。举个例子,一个客户因为预算关系,采购了一台1U的服务器做存储机头,买了5块三星840 EVO 240G做存储盘,4块Raid 10,1块热备。这套存储是用来做数据库的,每个月13亿条数据量左右(了解的人就知道这是什么负荷),系统已经跑了将近两年了,这套基于消费级固态硬盘的存储系统从没出过问题,硬盘Smart信息也没有任何报错,也就是说,用在这么严酷的环境下,消费级别的TLC闪存也能撑住,更不用说我们这么轻负荷的个人使用了。
综上所述:买iPhone6的时候该干嘛干嘛,这次出的问题,100%是软件优化,根本不关TLC什么事,不然你以为iOS 8这么频繁更新,已经更新到8.1.2了,是为什么?还不是更新算法Bug!只要算法优化好(其实就是一个平均写入的调配),别说TLC,即使TLC堆叠也不会对实际使用产生什么不良影响。
http://techreport.com/review/274 ... -freaking-petabytes
这个测试持续到最后,总计向SSD内写入了2PB的内容,也就是总共向SSD内写入了2000000GB的数据。
存活下来的的两款硬盘分别是金仕顿HyperX 3K 240GB以及三星840 Pro 256GB,当然金仕顿那款是带数据压缩的,写入内容实际没这么多,但三星那款是实实在在的写入了2PB数据的。
可能大家没概念,2PB代表什么?代表把256GB的三星840 Pro循环写入7812次,如果你每天都把这硬盘写满一次,那需要21年才能达到这个写入量,大家扪心自问一下,你有没有这个写入量?
或许有人会说,这两款都是MLC的,但是MLC之前坛子里某某人说只有1000次写入,这里我就不打脸了。
或许又会有人说,TLC就没这么幸运了,那好,您也可以去看看这篇文章,三星840EVO 250G在写入900TB后出现无法写入的情况,也就是说你每天把这硬盘写满一次,也要将近十年才能把他的TLC闪存写坏。
而且,测试中最先挂掉的是金仕顿HyperX 3K 240G,写入到了728TB的时候就挂了,当然这货支持数据压缩,只是被编辑特意关了,而开了数据压缩的同款一直坚持到了最后还没挂。
第二个挂掉的是Intel SSD 335 240G,写入到了750TB的时候也挂了。
上面两款还都是MLC闪存的,所以说别以为MLC有多牛,虽然从技术参数上讲MLC是高于TLC很多,但是不代表寿命就一定长,这和固件优化以及生产工艺都是有关的。强大如Intel的工艺,MLC也在750TB的地方挂了,而三星的840 EVO 250G坚持到了900TB的写入量。
最后,还是基于TLC来说,测试中唯一一款TLC闪存的三星840 EVO 250G,挂掉是在900TB的数据量,而第一次出现重分配错误是在200TB的数据量。也就是说,你每天全盘写满一次,要把他用到彻底坏掉(类似IP6无法开机的故障)需要9.86年,而即使按照第一次出现重分配扇区的200TB的量来算,每天写满一次,也要2.19年才可能出现坏道。
注意,这个测试是用SATA口的极限速度连续不停写入数据,正常使用中你根本不可能有这么大的写入量,更不可能有这么大的写入强度。就算你保持每天都下一部蓝光原盘ISO--60G容量吧,按照上面的TLC固态硬盘出现错误的数据,大家可以算算,200TB的时候出现第一个坏道,那就要9年才会出现坏道,注意只是坏道,不是坏了,要真搞坏需要大的多的写入量。而一款64GB的iPhone6,即使使用TLC,每天写入60GB的数据,也要两年多一点才会出现坏快,现在所有的闪存都有冗余机制,因此出现一个坏块立马会被冗余块替换掉,根本就不会影响到使用。要把这个64G闪存用挂掉也基本不可能。说实话,主控挂掉的可能性远远高于闪存。
楼主是干IDC架构设计和运维的,可以告诉大家的是,现在稍微上点档次的企业所用的存储都用闪存做缓冲区,普通硬盘做存储盘,在数据中心的写入强度下,SSD都能撑住,何况是普通个人使用。举个例子,一个客户因为预算关系,采购了一台1U的服务器做存储机头,买了5块三星840 EVO 240G做存储盘,4块Raid 10,1块热备。这套存储是用来做数据库的,每个月13亿条数据量左右(了解的人就知道这是什么负荷),系统已经跑了将近两年了,这套基于消费级固态硬盘的存储系统从没出过问题,硬盘Smart信息也没有任何报错,也就是说,用在这么严酷的环境下,消费级别的TLC闪存也能撑住,更不用说我们这么轻负荷的个人使用了。
综上所述:买iPhone6的时候该干嘛干嘛,这次出的问题,100%是软件优化,根本不关TLC什么事,不然你以为iOS 8这么频繁更新,已经更新到8.1.2了,是为什么?还不是更新算法Bug!只要算法优化好(其实就是一个平均写入的调配),别说TLC,即使TLC堆叠也不会对实际使用产生什么不良影响。
