6x SSD RAID in mini-ITX Expiriment
07-03-13 - Update onderaan: Resultaten!
08-03-13 - Update onderaan: Resultaten met 6 SSD's!
Het bloed kruipt waar het niet gaan. Nadat ik dacht dat ik voor goed over was op laptops toch maar weer eens een PC gekocht. De laatste laptop die ik zelf kocht dat was 5 jaar terug - een redelijk zwaar uitgeruste Lattitude die ondertussen netjes dienst doet in een docking onder de TV als HTPC. Ook altijd een laptop gehad met admin rechten van m''n vorige werkgever - maar helaas mijn nieuwe werkgever heeft een wat meer op simpletons gericht ICT beleid. Dus ik zat opeens zonder fatsoenlijke computer.
Een fijne werkplek met een groot bureau bevalt me toch wel, dus de kogel ging door de kerk. Monitor aangeschaft en om m'n ICT thuis nu meteen eens goed op orde te krijgen voor de komende jaren een redundant Synology NAS.
Omdat ik toch hou van expirimenteren en ik onderstaande filmje erg gaaf vind ben ik bij een wat bijzondere systeemconfiguratie terecht gekomen:
http://www.youtube.com/watch?v=96dWOEa4Djs
Ik wou SSD's in RAID zetten... alleen het idee al fascineerde me. Wat me verder gestolen kon worden - Gaming. Zolang ik er maar Civ 4 plus mods op kan spelen ben ik blij.
| # | Product | Prijs | Subtotaal |
| 1 | AMD A10-5700 Boxed | € 107,80 | € 107,80 |
| 1 | ASRock FM2A85X-ITX | € 84,42 | € 84,42 |
| 1 | Cooler Master Elite 120 Advanced | € 38,74 | € 38,74 |
| 3 | Delock Cable SATA Slimline male + 2pin power 5V > SATA | € 6,55 | € 19,65 |
| 1 | Revoltec 3.5'' naar 2x 2.5" storage bay adapter | € 5,32 | € 5,32 |
| 1 | Scythe Kozuti 40mm Super-Low Profile | € 22,99 | € 22,99 |
| 1 | Crucial BLT2CP4G3D1869DT1TX0CEU | € 47,66 | € 47,66 |
| 1 | Samsung SH-224BB Zwart | € 14,92 | € 14,92 |
| 1 | be quiet! Pure Power L7 350W | € 41,35 | € 41,35 |
| 6 | Sandisk ReadyCache Solid State Drive 32GB | € 40,54 | € 243,24 |
| Bekijk collectie Importeer producten | Totaal | € 626,09 | |
- Waarom deze componenten, en m.n. SSD's van 32GB?: Budget, wou het beperkt houden. En de ReadyCache SSD's zijn eigenlijk bedoelt als upgrade voor systemen met al een HDD erin. 192GB in raid is genoeg want al m'n overig gegevens staan veilig op de NAS verbonden met een gigabit lijntje. Ook hebben deze SSD's garbage collection dus geen TRIM onder windows 7 is geen issue. Verder interesseert gaming me niet meer... maar draai ik nog wel eens 3D applicatie zoals bijv. SolidWorks
- Waarom een AMD A10-5700???: Omdat AMD de enige is die waarbij je mini-ITX bordjes hebt met meer dan 2 SATA-600 aansluitingen... en wel 7 bij die die ik gekozen heb. En vanwege de lagere TDP, ook al kost ie hetzelfde als de A10-5800K die je zou kunnen downclocken. Ik ben echter de tijd van undervolten en de multiplier veranderen een beetje voorbij merk ik. Verder zou deze processor snel genoeg moeten zijn voor wat ik doe en wederom speelt budget een rol.
- Wacht even, in de CM Advanced 120 passen toch maar 2x2,5SSD's: Niet als je er een 2x2,5 (Revoltec) 3,5 inch bracket bij koopt
- Waarom zes SSD's?: Omdat er 7 aansluitingen op het moederbord zitten en er een nodig is voor de CD-rom. En er 6 plekken zijn in de CM Advances 120 :-)
- Waarom deze voeding?: Omdat er 4 sata aansluting op zitten 3 molex. Met 3 molex --> sata stekkertjes precies goed dus en een minimum aan overbodige kabels in de kast. En omdat ie betaalbaar en stil is... zelfde reden voor de processorkoeling keuze (en Scythe Big Shuriken vond ik toch wat lomp worden in zo'n kast).
- En denk je nou echt 6x 470mb/s = 2760mb/s read te gaan krijgen en 6x 115 = 690 write?: Nee niet zoveel... maar het is in ieder geval erg interessant wat het wel gaat worden :-)
- 6 SSD's in RAID 0, vragen om problemen!: Zoals gezegd zet ik al m'n bestanden op een fijne snelle Synology NAS met 3TB die redundant is. En volgens mij zijn SSD's minder storingsgevoelig dan HDD's
Binnenkort komen de componenten binnen en ga ik de boel eens in elkaar zetten!
------------
Een kleine update! :-)
-----------
Update 07-03-13: Resultaten!
Ok mensen,
HD Tune heeft gesproken:
HD Tune: AMD 4+0 Stripe/RAID0 Benchmark
Transfer Rate Minimum : 711.5 MB/sec
Transfer Rate Maximum : 1151.8 MB/sec
Transfer Rate Average : 1010.4 MB/sec
Access Time : 0.2 ms
Burst Rate : 2335.6 MB/sec
CPU Usage : -1.0%
Dit zijn leessnelheden (write zit alleen in de betaalde versie). 64 block size.
Configuratie is 4 SSD's, proc. gebruik zit tussen de 13 en 25% op een A10-5700.
Volgens mij zit er idd. een bottleneck in de controller maar aan de andere kant 4x470MB/s = 1880 is een theoretische snelheid.
Ik ga er niet meer de twee overige SSD's instoppen want dan krijg ik denk ik problemen met de bandbreedte naar van Northbridge naar Southbridge zoals eerder al gesteld.
Een SSD gaat naar m'n laptop en één kan ik er nog doorverkopen aan m'n vader :-)
Computer voelt absurd snel aan. En gezien iets met nog lagere theoretische snelheden 1,5 keer zo duur is per GB geen slechte aanschaf toch?
pricewatch: OCZ RevoDrive 3 PCI-Express SSD 120GB
Iemand trouwens nog behoefte aan een nagelnieuwe pricewatch: Scythe Kozuti 40mm Super-Low Profile
M'n ITX bordje blijkt een beetje alternatieve layout te hebben en ding is dus te breed...
-----------
Update 08-03-13: Resultaten met 6 SSD's!
Ok, ik kon het niet laten. Zeker nadat ik er achter kwam dat m'n 5 jaar oude HTPC laptop blijkbaar SATA 3.0 SSD's niet meer herkent. Er zitten blijkbaar toch grenzen aan hoe goed standaarden geimplementeerd zijn...
Dus de overige 2 SSD's er ook in: HDTune zegt:
HD Tune: AMD 6+0 Stripe/RAID0 Benchmark
Transfer Rate Minimum : 951.7 MB/sec
Transfer Rate Maximum : 1149.6 MB/sec
Transfer Rate Average : 1107.2 MB/sec
Access Time : 0.3 ms
Burst Rate : 1264.4 MB/sec
CPU Usage : -1.0%
En duidelijke cap dus op de controller van ~1150 MB/s, CPU verbruik is precies vergelijkbaar (13-25%). Gemiddelde IOPS ligt wel flink hoger tegen die 1150MB/s aan. Over een eventuele limiet naar de Southbridge hoef ik me dus geen zorgen te maken...
Burst rate moet je niet naar kijken heb ik ondertussen al gemerkt. HDTune meet daar ook wat je werkgeheugen me data die naar de HDD moet doet. Dat was eerst met 4 SSD's al meer de 2 GB/s en dus sowieso al een fabeltje.
http://www.overclock.net/t/634834/hd-tune-burst-rate
-------
Update 08-03-13 (en daarmee ben ik dan ook wel klaar):
Toch de setup weer terug gezet naar 4 SSD's...
Ik kreeg een paar keer zandlopers waar ik die eerder niet kreeg. Wss. de controller overbelast gok ik zo...
2 andere SSD krijgen een ander plekje.
Mijn conclusie voorlopig dan: 3 SSD's en een A75 bordje (tientje goedkoper) heb je het meeste waar voor je geld!
-------
Update 04-04-14 (en zwanenzang van het expiriment):
Een 4-SSD RAID setup is heel mooi qua torenhoge leessnelheden maar met schrijven gebeurt het omgekeerde: Dat is belabberd. Dit komt doordat intern in SSD's eigenlijk al RAID gebruikt wordt. Denk dan echt aan ~50Mb/sec. Gevolg was dit het systeem steeds vaker 'blokeerde' als je bijv. een bestand kopieerde en dat is natuurlijk niet werkbaar (of dat viel me gewoon meer op recentelijk ;-) ). Dus nu komt er een 240GB Crucial SSD in. Geinteresseerden voor een ReadyCache SSD om in een oude computer te zetten en die met de bijgeleverde software een stuk sneller te maken kunnen mij een mailtje sturen ;-)
Reacties
Er is geen enkele reden om zoiets als dit te bouwen behalve 'omdat het kan' (wat ik overigens een prima reden vind
Daarnaast is zoals johnkeates al zegt één SSD wellicht iets betrouwbaarder dan één HDD, maar 6 SSDs in RAID-0 gaan gegarandeerd veel sneller stuk dan elk single disk systeem. Je gaat hier binnen de kortste keren problemen mee krijgen.
[Reactie gewijzigd op zaterdag 2 maart 2013 13:42]
[Reactie gewijzigd op zaterdag 2 maart 2013 16:07]
Ik verwacht ook dat het sneller zal zijn. Controller zal m.i. ook idd. de bottleneck zijn. Om dat Samsung filmpje (wat ik al heel lang ken en altijd prachtig heb gevonden) maar aan te halen: In het begin zegt ie 220mb/s voor de schijven. 24 stuks en dan 2gb/s... daar gaat dan zeker snelheid verloren. Dit is een controler op de southbridge (n/b zit op de A10 APU). Dus dat is volgens mij iig. het meest 'dichte' bij de proc en het geheugen wat je kan krijgen...
[Reactie gewijzigd op zaterdag 2 maart 2013 16:07]
persoonlijk vind ik het heel jammer dat er nog geen filesystems bestaan die cash-volumes kunnen toepassen tenminste? ik heb er nog nooit iets over gelezen dat zfs of een anders systeem dit zou kunnen...
http://www.youtube.com/watch?v=j4wJlg53hlQ
http://www.pcworld.com/ar...r_pc_with_a_ram_disk.html
dit is bijna 10 x zo snel als een SSD. het grote nadeel hiervan is wanneer je computer een stroom uitval krijgt of herstart word ben je alles op je RAMDISK kwijt.
[Reactie gewijzigd op zaterdag 2 maart 2013 17:23]
Als je goed kijkt op het einde van het filmpje dan zie je hoe ze die snelheid bereikt hebben.
Ze gebruiken een adaptec 5 series raid card (8 kanalen) en een Areca 1680ix-24. (24 kanalen)
En dan haalde ze nog maar 800 mb/s.
Ik heb in 2009 een systeem gebouwd met 4 SSD's in RAID 0 op een Areca controller.
Die haalde 780 mb/s en dat was de maximale bandbreedte van mijn Areca controller.
Daarna hebben ze bij samsung een optimale verdeling gevonden van 10 aan de Areca, 8 aan de adaptec en 6 aan het moederbord.
En die drie dan gecombineerd met software matige RAID0 van Windows 7.
Dus ik vraag me af welke snelheid je gaat halen met RAID 0 op het moederbord vermits alle berekeningen dan door de cpu gedaan zullen worden (en niet door een apparte raid kaart).
Met 3 top SSD's en moderne RAID kaart kun je al over de 1200 mb/s halen.
Maar dat kost je wel flink wat geld.
Ben benieuwd wat je er uiteindelijk uit geperst krijgt!
[Reactie gewijzigd op zaterdag 2 maart 2013 18:03]
Ik denk dat je niet onder een pci-e raid controller onderuitkomt als je maximale snelheid wilt hebben.
[Reactie gewijzigd op woensdag 6 maart 2013 10:25]
Ik heb de specs niet opgezocht, maar afgaande op jouw claim dat ze garbage collection gebruiken de volgende bedenking:
- volgens de spec is de drive 32GB (en is er dus weinig/geen overprovisioning)
- geen TRIM (en al zeker niet in RAID)
Garbage collection zonder TRIM kan enkel deftig werken als
- de firmware van de drive de filesystem metadata kan interpreteren en weet welke blocks in gebruik zijn (werd vroeger veel toegepast); S/W raid verhindert dit.
- de drive voldoende overprovisioning heeft
Nee, out of the box kun je mss een bottleneck krijgen op controller of iets dergelijks, maar na een paar weken gebruik denk ik dat je de setup qua performance snel beu zal zijn...
De SSD weet natuurlijk welke blocks in gebruik zijn en welke niet. De mapping tables houden alle door de host geclaimde sectoren bij en hun fysieke NAND adres.
Zes betrouwbare SSDs in RAID0 zie ik nog steeds als veel betrouwbaarder dan een enkele hardeschijf. Met name als het SSDs zijn met power-fail capacitorbescherming. Met name de aankomende Crucial M500 die over een dergelijke beveiliging beschikt kijk ik dan ook erg naar uit. Dit is ook een heel snelle SSD en hopelijk ook gunstig geprijsd.
Het snelheidsvoordeel is er ook gewoon. Elke SSD die je toevoegt zou de IOps en doorvoer moeten verdubbelen. De enige échte beperking op deze stelling is dat blocking random read "4K" performance gelijk blijft op ongeveer 20MB/s. Dit kan door RAID0 niet verder worden verbeterd.
Verder wil ik benadrukken dat elke moderne SSD zijn snelheid al dankt aan het principe van RAID0 ofwel interleaving. Een Crucial M4 bijvoorbeeld is 16-way interleaved. Je zou kunnen zeggen: een RAID0 van 16 kleine SSDs. Het is opzich ook vreemd dat je een enkele SSD met heel veel NAND chips in RAID0 veilig vindt, maar meerdere SSDs waarbij de host de RAID0 uitvoert opeens onveilig is. Een hardeschijf met 10 platters is ook - over het algemeen - minder betrouwbaar dan een 1-platter schijfje.
Die details zijn me dan ontgaan in het Samsung filmpje.
De artikelen op internet over RAID 0 scaling van SSD's (o.a. HardOCP, Tomshardware) geven aan dat I//O idd. ongeveer lineair scaled.
Ik ben benieuwd.
Verder heb ik trouwens een ding over het hoofd gezien.
De bandbreedte van FM2/Northbridge naar de Southbridge is 2 Gigabyte/sec (http://benchmarkreviews.c...04&Itemid=63&limitstart=1). Gelijk aan PCI-e 8x dus.
Enige wat sneller zou zijn is een dedicated RAID controller in een PCI-e 16x slot met 4 Gigabyte/sec.
Op de southbridge hangt verder de VGA DAC (ik gebruik HDMI maar ik weet niet of die aan blijft), geluid (via geluidskaart in monitor voorzien via HDMI dus ook gebypassed) en USB (alleen keyboard/muis/webcam). Daar zou dus bijna alles van beschikbaar moeten zijn.
Denk dat ik eerst maar eens de I/O ga meten met 4 schijven. Daanrna 5. Mocht ik dan aan de 2GB/sec zitten dan krijgt m'n oude Lattitude HTPC een SSD upgrade op z'n oude dag
[Reactie gewijzigd op zondag 3 maart 2013 09:38]
Ik wist dat er aan gewerkt werd, maar niet dat het er bij AMD en Intel al was.CiPHER schreef op zaterdag 02 maart 2013 @ 19:51:
TRIM in RAID kan gewoon hoor. Sowieso alleen onder Windows een probleem of hardware RAID. Maar op Windows kunnen AMD en Intel wel degelijk TRIM doorsturen met hun windows storage drivers.
Ook met overprovisioning moet je drive garbage collection doen. Het probleem van TRIM zit em in het feit dat er geen outstanding I/O mag zijn en dat je hele drive even tot halt komt als het commando opgestuurd wordt.En zou je geen TRIM hebben, dan gebruik je altijd nog overprovisioning. Veel enterprisegebruikers schakelen TRIM uit en geven gewoon 50% overprovisioning; alle problemen opgelost. Met name omdat TRIM zelf vertragend kan werken met background garbage collection.
Fijn, maar zijn drives hebben, aangezien ze een capaciteit van 32GB adverteren waarschijnlijk geen overprovisioning. Dus alle blocks zijn op den duur in gebruik en dan gaat de drive van snel over naar traag en met een gigantische write-amplification.De SSD weet natuurlijk welke blocks in gebruik zijn en welke niet. De mapping tables houden alle door de host geclaimde sectoren bij en hun fysieke NAND adres.
Er kan nog veel meer mis gaan dan een power failure. Op die SSD draait ook gewoon software en elke software bevat bugs. In RAID0 moet je gewoon de betrouwbaarheid van 1 schijf delen door het aantal schijven. In dit geval dus door 6. SSDs hebben een fall-out van wat? een 2-5%?Zes betrouwbare SSDs in RAID0 zie ik nog steeds als veel betrouwbaarder dan een enkele hardeschijf. Met name als het SSDs zijn met power-fail capacitorbescherming.
NAND flashes vertonen een bathtub curve wbt fall-out, dus als je drive de eerste maanden overleeft dan is de kans reëel dat hij het uiteindelijk door wearing begeeft (of door host S/W updates/changes die verdoken bugs in de firmware triggeren).
Ik neem aan dat je verdubbelen zegt maar het niet bedoelt? Je zit nog altijd met de wet van de diminishing returns. 6 SSDs geven geen theoretische performance winst van x2^6 maar gewoon x6.Het snelheidsvoordeel is er ook gewoon. Elke SSD die je toevoegt zou de IOps en doorvoer moeten verdubbelen.
Hard disks komen nauwelijks boven de 2-3 platters uit. De onbetrouwbaarheid bij HDDs met meerdere platters komt voornamelijk door andere redenen dan dat er simpelweg meer platters zijn.De enige échte beperking op deze stelling is dat blocking random read "4K" performance gelijk blijft op ongeveer 20MB/s. Dit kan door RAID0 niet verder worden verbeterd.
Verder wil ik benadrukken dat elke moderne SSD zijn snelheid al dankt aan het principe van RAID0 ofwel interleaving. Een Crucial M4 bijvoorbeeld is 16-way interleaved. Je zou kunnen zeggen: een RAID0 van 16 kleine SSDs. Het is opzich ook vreemd dat je een enkele SSD met heel veel NAND chips in RAID0 veilig vindt, maar meerdere SSDs waarbij de host de RAID0 uitvoert opeens onveilig is. Een hardeschijf met 10 platters is ook - over het algemeen - minder betrouwbaar dan een 1-platter schijfje.
Maar on-topic: 16-way interleaved, x6 SSDs: 96 'single point of failure's met complete data loss tot gevolg. En dan hebben we de controllers en alle S/W nog niet meegeteld.
Ik zou bij deze setup toch echt gaan voor RAID-5 met een 5-10% overprovisioning. Je verliest er een hoop schrijfruimte door, maar qua reliability en long-term performance ge je er wsch een stuk op vooruit.
Thx ik ga er eens goed naar kijken.
Ik ben er trouwens achter gekomen dat mijn eerdere opmerking van 2GB/s verbinding naar de southbridge iets anders geinterpreteerd moet worden.
De A85x gebruikt n.l. UMI Gen 2 ipv UMI Gen 1 (PCI-e is de achterliggende technologie).
Nu is er dit interessante artikel: http://www.hotchips.org/w...lano-Fusion-Foley-AMD.pdf
Zie sheet 15: In totaal zijn er dus 8 lanes, maar dat is voor full-duplex. Dus vergelijk het met PCI-e 2.0 x4. Aangezien de SSD's een veel hogere read (470mb/s) dan schrijf (115mb/s) hebben zou dat dan precies mooi uit moeten komen.
... wel redelijk maximaal gebruik van wat er mogelijk is op de chipset.
Edit: Hmmm, kan het niet laten nog eens naar de PCI-e spec gekeken. Volgens mij haal ik PCI-e full duplex door elkaar met wat bij een ethernet zo is. Zo heb ik eens met 16Megabyte/sec gedownload over een 100 mbit lijn. Maar die kon dus over elk van z'n full-duplex kanelen de ene of de andere kant op pakketjes sturen. Dat is bij PCI-e niet zo krijg ik het idee als ik bijv. hier naar kijk: http://www.pcisig.com/dev...5d4360c09299f06e10266e6df
[Reactie gewijzigd op zondag 3 maart 2013 10:39]
Je kan niet op beide kanelen tegelijk verzenden en ontvangen, dus 16MB/s op een 100Mbit lijntje is onmogelijk, tenzij er compressie toegepast wordt en de data rate na decompressie is.
Een 2,5 inch SSD in een 5-1/4 inch bay... dat vind ik niet echt elegant
En 6 zou toch genoeg moeten zijn?
Ben er nu over aan het malen dat 6x 470mb/s 2760 mb/s is en dat de southbridge maar een verbinding met de northbridge blijkt te hebben van 2000 mb/s. Dus ga het systeem straks eerst maar eens instaleren met 4 SSD's om te kijken waar ie niet geknepen terecht komt met troughput. Adhv daarvan wss. een 5e erbij. 6e wellicht naar een Lattitude met dock die onder de TV dienst doet als HTPC (en gelukkig ook 5 jaar geleden als premium business laptop al was uitgerust met 1 gigabit lan voor de verbinding met de 3TB NAS).
[Reactie gewijzigd op maandag 4 maart 2013 07:42]
Dat gebeurt enkel als je geen beschikking hebt over NCQ (dus IDE modus ipv AHCI) of dat de firmware van de SSD vrij primitief is. Er is geen reden dat een SSD niet zowel TRIM als andere I/O kan uitvoeren.Het probleem van TRIM zit em in het feit dat er geen outstanding I/O mag zijn en dat je hele drive even tot halt komt als het commando opgestuurd wordt.
Alle SSDs hebben spare space, zo'n 7% het verschil tussen GB en GiB wordt vaak gebruikt. Soms gaat hier echter NAND bitcorrectie (RAID4 of RAID5) vanaf zoals bij Intel, Sandforce en Crucial M500). Maar niets staat je in de weg zelf overprovisioning uit te voeren door gewoon een partitie te maken die niet alle ruimte omvat en de ongebruikte ruimte met rust te laten.Fijn, maar zijn drives hebben, aangezien ze een capaciteit van 32GB adverteren waarschijnlijk geen overprovisioning.
Dat wel. Maar het gros van alle SSD failures is door corruptie van de mapping tables. Volgens OCZ medewerker zou dit 9 van de 10 geretourneerde SSDs betreffen. Dat lijkt mij een redelijk aantal. 10% fysieke gedefecten, 90% softwarematige defecten. Die 90% omvat dan voornamelijk beschadigde mapping tables omdat de SSD zo ontworpen is om defect te raken na een onverwachte stroomonderbreking. Alleen SSDs met power-safe capacitors zijn veilig.Er kan nog veel meer mis gaan dan een power failure. Op die SSD draait ook gewoon software en elke software bevat bugs.
Dat is veel te simpel gedacht. En volgens deze gedachte zou een 240GB SSD dus ook twee keer zo onveilig zijn als een 120GB. Dat is natuurlijk niet waar; enkel het risico wat extra geheugenchips of meer dies per geheugenchip/package verhoogt telkens. Een quadcore processor heeft ook vier keer zoveel kans op failure doordat het vier keer zoveel componenten bevat grofweg, maar toch denken we niet zo over dat een quadcore onveilig is en je daarom beter een singlecore kunt nemen.In RAID0 moet je gewoon de betrouwbaarheid van 1 schijf delen door het aantal schijven. In dit geval dus door 6. SSDs hebben een fall-out van wat? een 2-5%?
Als je onbeveiligde SSDs in RAID0 gaat plaatsen heb je natuurlijk wel een groter risico. Maar in dit geval is ook een enkele SSD al onveilig en moet je hoe dan ook voor een backup zorgen. Dan maakt het weinig uit of je failure rate 1% of 4% is bijvoorbeeld.
SSDs die door stroomonderbreking falen, kunnen ook allemaal tegelijk falen. Het is daarom zeker niet vanzelfsprekend dat met gebruik van RAID0 je risico ook lineair stijgt. Ik zou zeggen juist van niet, mits je veilige SSDs hebt. Het kleine risico wat je overhoudt is niet erg significant.
6 SSDs kunnen dezelfde prestaties leveren als 6 SSDs in RAID0. Dus 6x de sequential I/O en 6x de IOps. In Windows omgevingen is de schaling inderdaad niet perfect. Op Linux/BSD platforms kom je vrijwel aan je theoretische schaling die je hoort te krijgen.Ik neem aan dat je verdubbelen zegt maar het niet bedoelt? Je zit nog altijd met de wet van de diminishing returns. 6 SSDs geven geen theoretische performance winst van x2^6 maar gewoon x6.
Nou.. regelmatig komen hardeschijven eerst met 4 of 5 platters aan een bepaalde capaciteit. Pas een jaar later wordt een 2-3 platter variant ontwikkeld voor dezelfde capaciteit.Hard disks komen nauwelijks boven de 2-3 platters uit.
Oh ik dacht juist dat de gedachte was twee dingen dus dubbel de kans op failure. Maar dat geldt opeens niet voor mechanische componenten?De onbetrouwbaarheid bij HDDs met meerdere platters komt voornamelijk door andere redenen dan dat er simpelweg meer platters zijn.
Reden genoeg om nooit geen SSDs meer te kopen volgens jouw argument. Want als men een enkele 480GB/960GB wilt kopen, koopt men eigenlijk een SSD met heel veel interleaving/kanalen/dies per channel.Maar on-topic: 16-way interleaved, x6 SSDs: 96 'single point of failure's met complete data loss tot gevolg. En dan hebben we de controllers en alle S/W nog niet meegeteld.
De grap is dus dat 'men' niet zo denkt. Een 1TB SSD met wellicht 48 interleaved kanalen ziet men gewoon als één SSD. Twee SSDs in RAID0 - ook al hebben die maar één kanaal - ziet men als onveiliger dan die 1TB SSD met heel veel kanalen. Grappig, nietwaar.
Juist RAID5 zou ik zeker niet doen. Alle problemen die je hierdoor kunt krijgen kunnen juist de veiligheid verlagen. Zo heeft onboard RAID5 geen BBU en gebruikt het je RAM voor onveilige write-back. Dat kan voor corruptie zorgen.Ik zou bij deze setup toch echt gaan voor RAID-5 met een 5-10% overprovisioning.
SSDs gebruiken intern al RAID5 of RAID4. Dus NAND biterrors ben je eigenlijk al tegen beschermd. Door gebruik van een simpele externe RAID0 voorkom je juist dat corruptie op extern RAID-niveau voorkomt. Bovendien heb je veel betere performanceschaling met RAID0. RAID5 heeft zeer slechte random write performance wat een SSD juist wilt kunnen doen.
Kortom, ik ben het niet helemaal met je eens. Maar je moet zelf maar kijken wat je met mijn lijn van denken doet. Ik vind het in elk geval hypocriet om een enkele SSD als veilig te bestempelen maar een RAID0 array van veiligere SSDs opeens als onveilig. Dat zit gewoon veel compexer in elkaar, te beginnen met dat SSDs intern ook al RAID0/RAID4/RAID5 engines zijn van meerdere NAND kanalen die geparallelliseerd worden.
[Reactie gewijzigd op maandag 4 maart 2013 18:19]
AMD levert juist geen "echte" sata600 poorten. Als jij alle poorten maximaal aan het belasten bent kakt de snelheid in, omdat al die poorten dezelfde bus delen.- Waarom een AMD A10-5700???: Omdat AMD de enige is die waarbij je mini-ITX bordjes hebt met meer dan 2 SATA-600 aansluitingen... en wel 7 bij die die ik gekozen heb. En vanwege de lagere TDP, ook al kost ie hetzelfde als de A10-5800K die je zou kunnen downclocken. Ik ben echter de tijd van undervolten en de multiplier veranderen een beetje voorbij merk ik. Verder zou deze processor snel genoeg moeten zijn voor wat ik doe en wederom speelt budget een rol.
@GioStyle,GioStyle schreef op dinsdag 05 maart 2013 @ 14:12:
[...]
AMD levert juist geen "echte" sata600 poorten. Als jij alle poorten maximaal aan het belasten bent kakt de snelheid in, omdat al die poorten dezelfde bus delen.
Graag wat uitleg? Als je de de 2 Gigabyte verbinding met de Northbridge (PCI-e 2.0 x4) bedoelt dan ben ik daarvan op de hoogste, zie bovenstaande.
Mocht het echt een probleem worden dan kan ik dat ene PCI-e 2.0 x16 slot nog hiervoor benutten... gaat het orginele idee wel een beetje overboord.
pricewatch: IBM ServeRAID M5014
XElDiablo690 schreef op dinsdag 05 maart 2013 @ 14:29:
[...]
@GioStyle,
Graag wat uitleg? Als je de de 2 Gigabyte verbinding met de Northbridge (PCI-e 2.0 x4) bedoelt dan ben ik daarvan op de hoogste, zie bovenstaande.
Mocht het echt een probleem worden dan kan ik dat ene PCI-e 2.0 x16 slot nog hiervoor benutten... gaat het orginele idee wel een beetje overboord.
pricewatch: IBM ServeRAID M5014
Gio heeft gewoon gelijk. de Southbridge mag een pciex8 verbinding met de cpu/nb hebben maar dat is verre van een garantie dat alle individuele controllers in de sb ook daadwerkelijk toegang tot al die bandbreedte hebben. ik heb bijvoorbeeld op een (wel al wat oudere, maar destijds wel hun topmodel) AMD Southbridge 5x1tb in raid0 opgesteld en ben er toen snel achter gekomen dat die opstelling nauwelijk 1.5x snelheid opleverde tov enkele schijven omdat de controller gewoon gelimiteerd was rond 200MB/s. (Mijn intel x58 gebaseerde raid0 deed het wel iets beter maar ook daar was de winst hooguit 2x.)XElDiablo690 schreef op dinsdag 05 maart 2013 @ 14:29:
[...]
@GioStyle,
Graag wat uitleg? Als je de de 2 Gigabyte verbinding met de Northbridge (PCI-e 2.0 x4) bedoelt dan ben ik daarvan op de hoogste, zie bovenstaande.
Mocht het echt een probleem worden dan kan ik dat ene PCI-e 2.0 x16 slot nog hiervoor benutten... gaat het orginele idee wel een beetje overboord.
pricewatch: IBM ServeRAID M5014
Ik denk dat je wel degelijk aan een pcie sata/raid controller moet denken mits je de maximale doorvoer wilt genieten. De controller in de sb zal je met grote kans zwaar teleurstellen. onafhankelijk van de fabrikant. niet voor niks zijn in storage servers die op performance gericht zijn altijd dedicated hddcontrollers. de geïntegreerde dingen deugen hoofdzakelijk voor opslag en zijn niet gemaakt om veel meer dan de performance van een aantal twee schijven volledig te gebruiken.
[Reactie gewijzigd op woensdag 6 maart 2013 02:53]
HD Tune heeft gesproken:
HD Tune: AMD 4+0 Stripe/RAID0 Benchmark
Transfer Rate Minimum : 711.5 MB/sec
Transfer Rate Maximum : 1151.8 MB/sec
Transfer Rate Average : 1010.4 MB/sec
Access Time : 0.2 ms
Burst Rate : 2335.6 MB/sec
CPU Usage : -1.0%
Dit zijn leessnelheden (write zit alleen in de betaalde versie). 64 block size.
Configuratie is 4 SSD's, proc. gebruik zit tussen de 13 en 25% op een A10-5700.
Volgens mij zit er idd. een bottleneck in de controller maar aan de andere kant 4x470MB/s = 1880 is een theoretische snelheid.
Ik ga er niet meer de twee overige SSD's instoppen want dan krijg ik denk ik problemen met de bandbreedte naar van Northbridge naar Southbridge zoals eerder al gesteld.
Een SSD gaat naar m'n laptop en één kan ik er nog doorverkopen aan m'n vader :-)
Computer voelt absurd snel aan. En gezien iets met nog lagere theoretische snelheden 1,5 keer zo duur is per GB geen slechte aanschaf toch?
pricewatch: OCZ RevoDrive 3 PCI-Express SSD 120GB
Iemand trouwens nog behoefte aan een nagelnieuwe pricewatch: Scythe Kozuti 40mm Super-Low Profile
M'n ITX bordje blijkt een beetje alternatieve layout te hebben en ding is dus te breed...
Dus de overige 2 SSD's er ook in: HDTune zegt:
HD Tune: AMD 6+0 Stripe/RAID0 Benchmark
Transfer Rate Minimum : 951.7 MB/sec
Transfer Rate Maximum : 1149.6 MB/sec
Transfer Rate Average : 1107.2 MB/sec
Access Time : 0.3 ms
Burst Rate : 1264.4 MB/sec
CPU Usage : -1.0%
En duidelijke cap dus op de controller van ~1150 MB/s, CPU verbruik is precies vergelijkbaar (13-25%). Gemiddelde IOPS ligt wel flink hoger tegen die 1150MB/s aan. Over een eventuele limiet naar de Southbridge hoef ik me dus geen zorgen te maken...
Burst rate moet je niet naar kijken heb ik ondertussen al gemerkt. HDTune meet daar ook wat je werkgeheugen me data die naar de HDD moet doet. Dat was eerst met 4 SSD's al meer de 2 GB/s en dus sowieso al een fabeltje.
http://www.overclock.net/t/634834/hd-tune-burst-rate
Nu niet meer ;-)
Toch de setup weer terug gezet naar 4 SSD's...
Ik kreeg een paar keer zandlopers waar ik die eerder niet kreeg. Wss. de controller overbelast gok ik zo...
2 andere SSD krijgen een ander plekje.
Mijn conclusie voorlopig dan: 3 SSD's en een A75 bordje (tientje goedkoper) heb je het meeste waar voor je geld!
Maar de echte vraag is natuurlijk: waarom hoeven er geen geultjes in?tijmen1 schreef op vrijdag 08 maart 2013 @ 10:39:
Je tv staat nog aan! xD
HowItsMade kijken op Discovery, aflevering over bandzagen vlgs mij. Ik was er niet zo aan het letten ;-)
[Reactie gewijzigd op zaterdag 9 maart 2013 13:14]
Reageren is niet meer mogelijk