BBG Zuinige fileserver (Dec '13/Jan '14)

Door mux op zondag 29 december 2013 16:31 - Reacties (39)
Categorie: Best Buy Guides (BBGs), Views: 16.928

Het is weer hoog tijd voor een nieuwe BBG. De vorige BBG is inmiddels obsolete; zowel het Ivy Bridge-platform als enkele andere onderdelen in de vorige build zijn slecht verkrijgbaar of worden inmiddels in prijs/prestatie overschaduwd door moderne varianten.

Maar deze BBG is niet puur een refresh van de vorige. Dit keer richten we ons op een heuse fileserver: geen kleine NAS met 1 of 2TB opslag, maar groeipotentiaal tot tientallen terabytes. Want ondanks streaming diensten en betrouwbare, snelle internetverbindingen zijn er nog steeds een hoop mensen die veel plezier hebben aan hun 10TB+ rigs, getuige de vele topics hierover. En behalve het opslaan van software, films en muziek zijn er ook nog steeds een hoop mensen die hun foto/videografiewerk en andere grote hoeveelheden unieke data moeten opslaan. Zaken waarvoor zowel cloudstorage als kleine NAS-apparaten niet geschikt zijn.

Veel centrale storage en vooral veel harde schijven is een risico voor je data. Hoe meer harde schijven en daadwerkelijk daarop geschreven data je hebt, des te meer kans op foutjes tijdens het schrijven. En des te meer kans dat een schijf kapot gaat. Veel mensen roepen nu 'RAID!'... Nee, er zijn tegenwoordig betere methoden. In deze BBG richten we ons 7op ZFS als oplossing van een deel van deze problemen.
Waarom ZFS?
TL;DR:

Voordelen
  • Copy on write
  • Checksums
  • Kan omgaan met bit rot
  • verder alle voordelen van parity-achtige constructies in RAID
Nadelen
  • Draait niet onder Windows
  • Redelijk wat geheugen nodig, bij voorkeur ECC
ZFS is op dit moment het enige echt goed geschikte bestandssysteem voor grote data arrays. Waarom? Reden één: Copy on Write. Heel simpel gezegd schrijft ZFS eerst de nieuwe data op een leeg stuk van je harde schijven, en verzet daarna een pointer van de oude naar de nieuwe data. Dit zorgt er voor dat je schijven (mits er genoeg lege ruimte is) altijd op volle snelheid kunnen schrijven omdat ze lekker sequentieel kunnen schrijven. Ook is het veiliger voor je data, want je oude data word nooit zomaar overschreven. Mocht er dus halverwege iets fout gaan, heb je altijd de oude versie nog.

Tweede reden: Checksums. Zie dit als een ingebouwde hash-functionaliteit in het bestandssysteem zelf. ZFS houdt voor elk stukje data een checksum bij van 256 bytes (SHA256) waardoor het kan zien of er iets mis is met de data. Het leuke van ZFS is, dat dit continu gecontroleerd wordt. Bij iedere leesbewerking wordt geverifieerd of de data nog hetzelfde was als toen het voor het eerst geschreven werd. Zodra dit niet klopt zal ZFS alarm slaan, of als je genoeg redundantie hebt (Mirrors, RAIDZ1/2/3) de data repareren! Huh? Hoe kan dat dan? Nou heel simpel. ZFS leest de data van een schijf en ziet dat die data niet klopt. Mocht er nog een schijf zijn die de data ook bevat, en waarvan de checksum wel klopt, dan gaat ZFS de data kopieren van de goede versie, naar de kapotte versie op disk! Mooi toch!

Nog een belangrijke reden om ZFS te gebruiken: Bit rot. Wat is Bit rot? De naam zegt het al een beetje, bitjes die omvallen (omdat de magnetische domeinen op de harde schijven langzaam minder sterk worden). Is dit dan zo’n groot probleem? Ja, tegenwoordig wel. Harde schijven worden zo groot dat er een grote kans is dat in de levensduur van een schijf (terwijl hij in je bezit is) er zo’n bitje omvalt. Wat heeft ZFS hier mee te maken? Nou simpel, door het checksum mechanisme kan ZFS deze omgevallen bitjes zien! Waar normale bestandssystemen en RAID-engines de data gewoon corrupt aan je OS/Applicatie presenteren, gaat ZFS proberen de data te herstellen, of als dit niet kan, de file waar deze bitrot in zit verwijderen. Dit om te voorkomen dat de applicatie corrupte data aangeleverd krijgt.

Heeft ZFS dan ook nadelen? Ja, helaas wel. Voor velen is een van de grootste nadelen: Het draait niet onder Windows. De enige betrouwbare platforms waar het op kan draaien, zijn Solaris en BSD. Er is ook een Linux-installatie, en hoewel die al zeker goed op weg is, zeggen we toch in deze BBG: nog even niet. Het werkt wel, maar het is op het moment nog een proces voor gevorderden.

Een ander groot nadeel van ZFS is: Het kost veel geheugen. Waarom? ZFS werkt met een transactioneel systeem. Denk aan een database waar de verschillende veranderingen in een tabel in 1 transaction group geaggregreerd kunnen worden. ZFS doet iets soortgelijks met de IO richting je pool (reads en writes). Hierdoor heeft ZFS genoeg geheugen nodig om al deze wijzigingen in het geheugen op te slaan, te sorteren, en checksums over te berekenen, alvorens het naar disk geschreven word. Bovendien kan ZFS data van te voren al ophalen, omdat het denkt dat je deze data nodig hebt (prefetching), deze functie werkt pas als je meer dan 4GB geheugen hebt. ZFS komt voor kleine arrays eigenlijk pas tot zijn recht met 8GB geheugen, en voor echt grote arrays met grote data verbindingen (Fibre Channel, Infiniband, 10Gbit Ethernet, Port Trunks) heb je eigenlijk 16GB geheugen of meer nodig. Het moge duidelijk zijn dat ZFS dus heel zwaar leunt op het geheugen, en mede omdat er een hoop user data in staat is het aan te raden om dan ook ECC (error correcting) geheugen te gebruiken.

Waarom dan toch ZFS? Omdat er geen enkel ander bestandssysteem is, wat het niveau van volwassenheid heeft bereikt zoals ZFS dat heeft (ik kijk even met een scheef ook naar BTRFS en ReFS). Een derde belangrijke reden om voor ZFS te kiezen is dat de grootte van harde schijven tegenwoordig zo hard groeit, dat we steeds meer last krijgen van de slechte uBER specificaties van de schijven. Mocht je dit technische verhaal willen begrijpen, verwijzen we je graag door naar Het grote ZFS topic, daar staat het een en ander duidelijk uitgelegd.
Alleen ZFS is niet genoeg, je hebt nog steeds backups nodig
ZFS en als deel hiervan ECC beschermt je tegen incidentele schrijf/leesproblemen van je data, maar niet tegen blikseminslag of overstroming. Of user error. De enige bescherming daartegen is een backup, en wel ééntje die offsite (niet in hetzelfde huis, heel ergens anders) en onafhankelijk is. Hier hebben we wel een beetje een probleem, want 12TB data 'eventjes' backuppen naar een offsite locatie is niet bepaald makkelijk.

Allereerst is het nuttig om prioriteiten te stellen: welke data kan ik missen en welke is absoluut onvervangbaar? Stel dat je je storage alleen gebruikt voor gedownloade films en series, dan kan het best zijn dat je maar enkele honderden gigabytes aan belangrijke data overhoudt. Dat kan dan gemakkelijk naar bijvoorbeeld een cloud-backupdienst zoals Crashplan worden gegooid. Heb je meer data, dan kun je ditzelfde programma of bijvoorbeeld iets als BTSync gebruiken om een backup aan te leggen bij een vriend of familie. Zorg er ook voor dat je externe backups encrypt voordat je ze wegstuurt. Crashplan heeft ingebouwde mogelijkheden om dit te doen, voor BTSync raad ik (op aanraden van Dadona) Boxcryptor Classic aan. Overigens is Boxcryptor een onafhankelijk programma; je kunt het ook gebruiken om data voor Crashplan of elke andere cloud/backupdienst te versleutelen.

Hoe dan ook gaat een goede backupdienst je geld kosten; houd hier rekening mee bij de aanschaf van je fileserver. Het lijkt nu misschien een 'onnodige' uitgave die je liever in andere componenten of in je spaarrekening stopt, maar when the shit hits the fan wil je niet dat terabytes aan data vermijdbaar verloren gaan!

BBG Avoton-based fileserver

#ProductPrijsSubtotaal
1ASRock C2750D4I¤ 380,63¤ 380,63
6WD Green WD40EZRX, 4TB¤ 141,-¤ 846,-
1Fractal Design Define Mini¤ 74,90¤ 74,90
2Sharkoon SATA Kabel¤ 1,80¤ 3,60
1Silverstone SST-CP06 4x SATA¤ 8,17¤ 8,17
2Startech 3.5inch Hard Drive to 5.25inch Front Bay Bracket Adapter - zwart¤ 4,71¤ 9,42
1Kingston KVR1333D3E9SK2/16G¤ 152,50¤ 152,50
1Seasonic G-Serie 360Watt¤ 54,99¤ 54,99
1Crucial 2.5" M500 240GB¤ 113,49¤ 113,49
Bekijk collectie
Importeer producten
Totaal¤ 1.643,70


Dit systeem is het uitgangspunt van de BBG. Het hart van de machine is de ASRock C2750D4I. Dit is een moederbord met de nieuwste generatie Atom-octacore (8-core) voor servers. Het grootste verschil met andere Atom-bordjes, en de reden waarom je zoveel extra geld ervoor betaalt, is dat deze processor ECC geheugen ondersteunt. Ook heeft dit bordje twee Intel i210 gigabit ethernet-connecties en 12 (!!) SATA-poorten. Indien gewenst kun je het bordje dus ook gebruiken als router/gateway (je hebt dan nog wel een externe switch nodig om genoeg Ethernet-poorten te maken voor al je andere computers) en het aantal harde schijven kan tot in het absurde worden aangevuld.

Ondanks dat Atom de naam heeft niet al te snel te zijn hoef je je geen enkele zorgen te maken om de processorkracht van dit systeem. Er is more than enough to go around, zeker als je deze computer zoals samengesteld puur gebruikt als fileserver (zelfs inclusief de belasting van PAR-checks, SABnzbd, streaming torrents, non-realtime transcoding van video). Je kunt er ook probleemloos een router of lichte webserver naast virtualiseren als je wil. Misschien wil je in dat geval wel wat meer geheugen installeren. Wanneer je echt meerdere streams realtime wil transcoden of andere zeer zware taken wilt doen heb ik ook nog een Xeon E3-gebaseerd systeem verderop in de BBG.

Maar laten we eerst eens de keuze voor alle componenten van het Avoton-systeem kort beschrijven:
  • Geheugen: ik heb hier gekozen voor twee UDIMMs van 8GB. Het is sterk aan te raden om dit artikel te lezen als je wil weten wat het verschil is tussen UDIMMs, RDIMMs, etc. 16GB is meer dan genoeg voor een licht tot gemiddeld gebruikt ZFS-filesysteem met tot ca. 20TB aan bruikbare opslagruimte. Indien je nog een keer graag een hele sloot aan VMs erbij wilt draaien heb je de optie om het geheugen uit te breiden tot maar liefst 64GB (4x16GB) - hoewel 16GB UDIMMs nog erg duur zijn op het moment.
  • Moederbord: Avoton is Intel's nieuwste Atom-lijn voor servers, en de ASRock C2750D4I is momenteel het eerste echt interessante moederbord met deze generatie processoren dat ook echt beschikbaar is. Het is vergeleken met de concurrentie (bijv. Supermicro A1SAI-2750f) goedkoper, waarschijnlijk zuiniger en beter voor een storage-gefocused systeem. Een goed alternatief is de ASRock C2550D4I: deze heeft exact dezelfde feature, maar een 4-core ipv 8-core processor. Gezien processorprestaties niet belangrijk zijn in deze context is dit een makkelijke manier om ruim 100 euro te verdienen. De reden dat hij niet standaard in de BBG staat is de beperkte verkrijgbaarheid op het moment van schrijven. In de loop van januari komt hier verbetering in.
  • Harde schijven: Voor de basisconfiguratie raad ik 6x4TB harde schijven in RAID-Z2 aan voor een totaal van 16TB bruikbare opslag. 6 of 10 schijven in RAID-Z2 zijn een optimaal getal voor ZFS. De WD40EZRX hebben met hun 3.3W idle-verbruik veruit de hoogste hoeveelheid opslagruimte per Watt en zijn dus de meest optimale keuze. WD30EZRX is een goed alternatief als je iets minder opslagruimte nodig hebt. Heb je echt 'weinig' opslagruimte nodig maar wil je nog steeds profiteren van ZFS met ECC, dan kun je overwegen om 3x3TB schijven in RAID-Z1 te zetten voor effectief 6TB opslag.
  • Kast. Hier heb ik gekozen voor een kast waar ik zelf ervaring mee heb en welke voldoende ruimte heeft voor de genoemde configuratie. De Fractal Design Mini is naar mijn mening een iets betere kwaliteit kast dan de reeds zeer goed presterende Fractal Define R2 en R3-kasten welke ik eerder al eens heb aangeraden. Hoopjes luchtfilters, plaatsen voor (bijgeleverde stille) fans en geluidsdemping zodat je de server op iedere plek kunt neerzetten die je wil zonder overlast te veroorzaken. Wil je een kleinere kast? De Lian Li PC-Q25B is de kleinste fileserver-kast te zijn waar alles uit deze BBG in past, en ondanks dat er nog geen reviews over uit zijn op de betere review-sites (bijv. SPCR) lijkt het uit gebruikerservaringen hoe dan ook een prima kast. Het merk boezemt op dit punt ook vertrouwen in. Wil je meer harde schijven kwijt? Dan zal de Fractal Design Define R4, eventueel met een aantal 5,25" naar 3,5" brackets, de voordeligste keuze zijn.
  • SSD. Een no-brainer in mijn ogen is de Crucial M500. Deze schijf kun je zowel als boot-schijf als - indien je denkt dit nodig te hebben - ZIL gebruiken (meer info hierover in het meermalen gelinkte ZFS topic). De M500 heeft power-safe caps, wat betekent dat de SSD geen data verliest of corrumpeert in het geval van een onverwachte stroomuitval. En daarnaast staat de M500 bekend als een betrouwbare, goede kwaliteit schijf met voor zover bekend geen serieuze problemen. En het is ook nog één van de goedkoopste schijven! Wat wil je nog meer. De prestatie- en stroomverbruikwinst door een SSD te gebruiken i.p.v. een harde schijf is mijns inziens de licht hogere prijs waard.
  • Voeding. Een systeem met veel harde schijven kan helaas niet (betrouwbaar) aan een PicoPSU worden gehangen, hoewel ik het wel erg graag had gewild. Dan maar the next best thing: een inmiddels zeer vaak aangeraden, solide, betrouwbare en efficiënte voeding van Seasonic. Even leek het er in de afgelopen weken op dat de voeding slechter en misschien zelfs onverkrijgbaar werd, maar de leveringsproblemen lijken zichzelf opgelost te hebben. Dit is één van de redenen voor het vertraagd uitkomen van deze BBG geweest. Phew, alles is toch nog goed gekomen!
  • Overige onderdelen: zoals altijd heb ik even een fit-test gedaan met alle onderdelen en met alleen de bovenstaande componenten ben je er niet. Als je 6 of meer schijven in de Fractal Design Mini wil zetten, moet je twee HDDs in de 5,25" bays hangen. Daarvoor zijn brackets nodig, de exemplaren in dit lijstje zijn de goedkoopste. Ook heeft de voeding niet voldoende SATA power-aansluitingen, dus vandaar dat kabeltje. Bij het moederbord worden 6 SATA-kabels bijgeleverd, dus als je dan ook nog een 2,5" SATA SSD erbij wil stoppen heb je niet voldoende SATA-kabels. Vanzelfsprekend zul je er nog meer moeten bijkopen als je bijvoorbeeld 10 schijven wilt installeren.
Dit systeem verbruikt zoals samengesteld ca. 40-45W idle onder FreeBSD. Je krijgt met dit systeem inclusief verzendkosten ca. 10GB/euro opslag en het verbruikt zo'n 2,6W/TB. Dit zijn nuttige getallen om te vergelijken met andere systemen.

Intel Xeon E3-based fileserver

#ProductPrijsSubtotaal
1Intel Xeon E3-1220 V3 Boxed¤ 177,49¤ 177,49
1Supermicro X10SLL-F¤ 158,41¤ 158,41
5WD Green WD40EZRX, 4TB¤ 141,-¤ 705,-
1Fractal Design Define Mini¤ 74,90¤ 74,90
2Sharkoon SATA Kabel¤ 1,80¤ 3,60
1Silverstone SST-CP06 4x SATA¤ 8,17¤ 8,17
2Startech 3.5inch Hard Drive to 5.25inch Front Bay Bracket Adapter - zwart¤ 4,71¤ 9,42
1Kingston KVR1333D3E9SK2/16G¤ 152,50¤ 152,50
1Seasonic G-Serie 360Watt¤ 54,99¤ 54,99
1Crucial 2.5" M500 240GB¤ 113,49¤ 113,49
Bekijk collectie
Importeer producten
Totaal¤ 1.598,97


Let op: De X10SLL+ -F is nauwelijks duurder en heeft twee identieke Intel i210 Ethernet-poorten ipv twee verschillende. Belangrijker nog; bij de +-versie zijn beide NICs ondersteund onder ESXi, terwijl de i217 op de non-+ versie niet ondersteund is. Helaas staat dit moederbord niet in de pricewatch dus kan ik hem niet in de RML-lijst zetten.

Dit systeem gebruikt geen 'langzame' atom-processor, maar een aanzienlijk snellere Intel Xeon E3-1220v3 Haswell-generatie quadcore. Als belangrijkste voordeel boven het bovenstaande systeem - naast betere prestaties voor bijvoorbeeld realtime 1080p video transcoden - is dat deze processor ook VT-d ondersteunt. Dit systeem is daardoor zeer geschikt om als VMware ESXi-bak te dienen waarin vele virtuele machines worden gedraaid. Ook kost het - als we er even vanuit gaan dat het moederbord in de Avoton-configuratie doorgaans wordt vervangen door de goedkopere C2550D4I - maar enkele tientjes meer dan het Avoton-systeem.

Waarom is dit dan niet het primaire BBG-systeem? Het verbruikt meer, en het is eigenlijk niet zo nuttig voor een fileserver. Doordat het ruim 10W meer verbruikt aan het stopcontact is het ook nog eens een paar tientjes per jaar duurder om te draaien. Eigenlijk is dit systeem alleen nuttig voor iemand die eigenlijk meer een virtualisatie/algemene server wil bouwen dan alleen een fileserver. Echter, vanwege de prijs/prestatieverhouding wilde ik jullie deze configuratie niet onthouden!

Een kleine maar nuttige upgrade voor wanneer je dit systeem regelmatig zwaar wil belasten is een betere processorkoeling. Hiervoor raad ik graag de Cooler Master Hyper TX3 Evo of Scythe Katana 4 aan. Hierbij is de laatste keuze de stilste, maar iets duurder dan de TX3. Voor licht processorgebruik is de stock koeler echter prima.

Let op: het was me in eerste instantie ook ontschoten, maar dit systeem heeft slechts 6 SATA-aansluitingen. Het is dus niet mogelijk om zonder vervanging van het moederbord (duur!) of het toevoegen van een (extreem onzuinige, afrader!) RAID-kaart een 6-10 disk systeem hiermee te bouwen.

Dit systeem verbruikt ongeveer 50-60W idle afhankelijk van je OS-distributie, misschien zelfs nog iets meer als je veel VMs erop draait. Hiermee kom je op wederom ca. 10GB/euro en ruwweg 3,5W/TB.
Besturingssysteem
Deze systemen zijn allebei uitgekozen op het draaien van het ZFS-bestandssysteem. Ondanks dat ZFS een bestandssysteem en geen besturingssysteem is, is het zeker voor de mensen die hier nog niet eerder mee hebben gewerkt aan te raden om een specifieke FreeBSD-distributie genaamd ZFSGuru te installeren. Lees meer over de installatie en configuratie hiervan in Het grote ZFS topic.

Deze BBG is mede tot stand gekomen door de uitgebreide hulp van Dadona, HyperBart en FireDrunk, bedankt!

Volgende: Seeedstudio 4-layer PCB quality 01-'14 Seeedstudio 4-layer PCB quality
Volgende: 3D printer livestream! 07-'13 3D printer livestream!

Reacties


Door Tweakers user masauri, zondag 29 december 2013 18:37

weer heel leuk om te lezen, apprecieer het ten zeerste!
accepteer je nu ook al pre-orders voor je voedingen? :p

Door Tweakers user mux, zondag 29 december 2013 19:07

masauri schreef op zondag 29 december 2013 @ 18:37:
weer heel leuk om te lezen, apprecieer het ten zeerste!
accepteer je nu ook al pre-orders voor je voedingen? :p
Ik heb het er natuurlijk zelf naar gemaakt dat iedereen me bij elk blog over MADPSU vraagt, maareh... Voorlopig nog niet. Kan er ook nog even niets concreets over zeggen totdat m'n nieuwe bedrijf (wat om o.a. MADPSU heen is opgezet) helemaal 'in bedrijf' is.

Door Tweakers user corewillem, zondag 29 december 2013 20:14

Komt er ook nog een goedkopere bbg ? Op basis van bv de nieuwe haswell celerons ?

Door Tweakers user mux, zondag 29 december 2013 20:21

corewillem schreef op zondag 29 december 2013 @ 20:14:
Komt er ook nog een goedkopere bbg ? Op basis van bv de nieuwe haswell celerons ?
Ik wil nog even wachten met een goedkope zuinige server tot de Haswell celerons goed leverbaar zijn. Momenteel is eigenlijk alleen de Pentium G3220/G3420 goed leverbaar, in de BBG wil ik de G1820 stoppen die naar alle waarschijnlijkheid nog 22 euro van de kosten afhakt.

Door Tweakers user corewillem, zondag 29 december 2013 20:59

mux schreef op zondag 29 december 2013 @ 20:21:
[...]


Ik wil nog even wachten met een goedkope zuinige server tot de Haswell celerons goed leverbaar zijn. Momenteel is eigenlijk alleen de Pentium G3220/G3420 goed leverbaar, in de BBG wil ik de G1820 stoppen die naar alle waarschijnlijkheid nog 22 euro van de kosten afhakt.
Geweldig, bedankt!

Door Tweakers user Snowmiss, zondag 29 december 2013 21:02

Ha die mux,

Goede jaarwisseling gewenst en dan wordt 2014 vast het jaar van de MADPSU ;)

Door Tweakers user ppl, zondag 29 december 2013 23:48

Ook handig, iemand heeft voor z'n werkgever moeten uitzoeken welke ssd toch goedkoop is maar die wel powerloss protection heet en geschikt is voor werk in een server (overigens wel eentje waar niet zoveel naar geschreven wordt, wel veel van gelezen): Analysis of SSD Reliability during power-outages. Hij heeft de Samsung 840 en Crucial M500 nog niet getest, wel de Intel 320 en S3500. Z'n conclusie tot dusver: koop die van Intel.

Het Supermicro Avoton bordje is voor een server wat eerder aan te raden dan de ASrock vanwege de goede remote management mogelijkheden (de ASrock heeft het ook maar geen idee hoe goed het is, die van Supermicro zijn prima). Als ik de prijs zo zie hebben we het over een verschil van ongeveer 20 euro. Daar koop je geen network KVM switch voor. Verder heeft deze 4 ipv 2 Gbit netwerkpoortjes wat voor sommigen nog wel eens interessant kan zijn omdat je ze kunt bundelen. Daardoor kun je wat meer gebruik maken van de performance die dit machientje geeft (je moet je afvragen in hoeverre die 1 a 2 Gbit zo'n setup met ssd die je voor bijv. de ZIL of L2ARC kunt gebruiken tot z'n recht kan laten komen).

Wat de i210 en i217 NICs en ESXi betreft: die worden standaard niet in ESXi 5.5 ondersteund maar er is wel een community driver voor. Die kun je na de installatie installeren (je zult dan wel een supported NIC in de machine moeten hebben anders zal hij de install niet willen doen) of je moet 'm vooraf toevoegen met de bekende tool ESXi-Customizer (je pakt de install iso, stopt de driver erin, bouwt nieuwe iso en die gebruik je om te installeren; gebruik je het Supermicro bordje dan hoef je 'm niet eens naar cd te branden :)). Hieronder een paar handige links:

[Reactie gewijzigd op zondag 29 december 2013 23:56]


Door Tweakers user Tha_Butcha, maandag 30 december 2013 01:20

Mooie BBG weer, komt precies op tijd.

Even een paar vraagjes:

- idee waar je dat alternatieve supermicro bord kan scoren?
- waarom gebruik je WD Greens ipv RED, meer GB per ¤?

Door Tweakers user mux, maandag 30 december 2013 07:51

@ppl: Ondanks dat de i210 wel werkt, is de i217 nog steeds niet ondersteund, ook niet met een community driver (voor zover ik heb kunnen graven - de tip over deze compatibility issues komt niet van mij).

Verder, over Avaton sprekend, lijkt mij dat je zowel op de supermicro als de ASRock gewoon gebruik wil maken van Intel IPMI/andere standaard remote management spullen die in de IME ingebouwd zitten en niks anders. Dat is niet verschillend of je de een of de ander koopt. We hebben het hier niet over custom remote management packages zoals in Dell/HP servers. Of mis ik hier iets?

Dus IMO is het verschil tussen de bordjes uiteindelijk niets anders dan puur hardware-features en verbruik. En dan is de ASRock C2550D4I het meest interessante bord: voor een thuissituatie of klein bedrijf is 4xGBe niet boeiend, en op elk ander punt is hij superieur. De Supermicro heeft een aardig nadeel met z'n SODIMM, minder SATA. De 12V input maakt dat je je ATX voeding moet gaan modden om hem uberhaupt aan te kunnen zetten. En je hebt de supermicro momenteel alleen in C2750-variant, wat een aardige duit duurder is dan C2550. Granted, C2550 is nog niet geweldig leverbaar en staat nog niet default in de BBG, maar het is wel doorslaggevend.

@Tha_Butcha:
- Nee, sorry. Lijkt niet leverbaar bij bekende NL websites.
- Omdat ZFS geen TLER nodig heeft en het verbruik lager is van de Green 4TB alsmede je meer gigabytes per euro krijgt :)

Door Tweakers user Duskwither, maandag 30 december 2013 09:57

Misschien kijk ik er overheen, maar volgens mij heeft de tweede configuratie beschikking over 6 sata poorten en zijn er 7 nodig (6 voor harddisks, 1 voor SSD). Mogelijk nog iets om even naar te kijken?

Verder complimenten over deze BBG, aan alle details is gedacht! Ik ga eens even kijken of ik budget vrij kan maken voor ik vermoed de tweede configuratie. Thanks!

[Reactie gewijzigd op maandag 30 december 2013 10:08]


Door Tweakers user mux, maandag 30 december 2013 10:15

Je hebt helemaal gelijk. Ik hen iets te blindelings de bbg gekopieerd en enkel mobo+proc vervangen. Dat systeem gaat maar tot 6 disks. In principe doer Supermicro aan goede DOM/usb-stick support dus je kunt evt vanaf een sd kaart of usb stick booten om alsnog 6x4TB erin te krijgen, maar ik verander de bbg alsnog naar 5x4.

Door Tweakers user dere12, maandag 30 december 2013 10:22

Gaaf man, naast de reguliere BBG's een super welkome toevoeging!

Door Tweakers user goarilla, maandag 30 december 2013 12:23

Waarom alleen WD, en geen combinatie van Seagate en WD ?
Nu heb je 6 disks waarschijnlijk uit eenzelfde batch.

Door Tweakers user mux, maandag 30 december 2013 12:25

goarilla schreef op maandag 30 december 2013 @ 12:23:
Waarom alleen WD, en geen combinatie van Seagate en WD ?
Nu heb je 6 disks waarschijnlijk uit eenzelfde batch.
En wat is daar mis mee? Je gaat de waarschijnlijkheid van crashen niet verbeteren door te mixen. Da's een statistische valkuil.

Door Tweakers user goarilla, maandag 30 december 2013 13:17

mux schreef op maandag 30 december 2013 @ 12:25:
[...]


En wat is daar mis mee? Je gaat de waarschijnlijkheid van crashen niet verbeteren door te mixen. Da's een statistische valkuil.
Leg me dat dan eens uit ?

Door Tweakers user goarilla, maandag 30 december 2013 14:21

Ik gebruik zelf ZFS (ZoL) als backup van een synology NAS. Nog een voordeel aan ZFS: bij het rebuilden worden alleen gebruikte blocks berekend en gekopieerd dit in tegenstelling tot Linux software md-raid en andere RAID-implementaties.

Opgepast wel: SMART waarden zijn vendor specifiek. Read_Read_Error_Rate bijvoorbeeld is bij Seagate schijven een enorm hoog nummer zonder dat er iets fout is terwijl het bij WD's liefst 0 is.

Door Tweakers user mux, maandag 30 december 2013 14:58

Om een statistisch voordeel te hebben bij het mixen van verschillende batches (of generaties, of firmwareversies, etc. etc.) moeten aan de ene kant de schijven uit dezelfde batch zeer sterk gecorreleerd zijn, en aan de andere kant schijven uit verschillende batches (relatief) zeer ongecorreleerd. Ook moet vervolgens de failure mode die je wil vermijden een sterke gevoeligheid hebben voor recessieve fouten (=fouten die enkel problemen veroorzaken wanneer ze tegelijk voorkomen op een specifieke manier bij meerdere onderdelen van een systeem).

Alles in 6-sigma manufacturing (fabricagemethoden en product life cycle management die erop is geënt om fatale failures van onderdelen te reduceren tot minder dan 0,0001%) is erop ontworpen om precies dit soort dingen totaal te vermijden. Er wordt gezorgd dat elke batch, en zelfs elke schijf in een batch een ietsiepietsie andere permutatie van componenten erop krijgt zodat een zo divers en dus ongevoelig mogelijke populatie producten wordt gecreëerd.

Bij het productieproces is dus dit hele idee van batch-to-batch variabiliteit eigenlijk al weggenomen. Het enige dat batches nog onderscheidt van elkaar is het moment waarop ze van de lopende band rollen en de orde waarin ze in dozen worden gestopt.

Shoppen bij verschillende fabrikanten heeft dan meer zin, want dan heb je echt te maken met twee (of meer) totaal andere schijven. Helaas heeft dat ook weer meer dan genoeg betrouwbaarheidsproblemen, door bijvoorbeeld implementatieverschillen in protocollen of physical layers die de schijven niet goed samen laten werken. Ik heb hier geen data over, maar het zou me niks verbazen als elk voordeel dat mixen van merken en types heeft wordt teniet gedaan door compatibiliteitsproblemen, hoe subtiel ook.

Dit is een beetje de gedachtengang achter waarom het mixen van batches al heel lang geen nuttige strategie meer is met moderne productiestrategieën. En dat is ook de reden waarom je geen duidelijke steppings of firmwarenummers zult vinden op een harde schijf, en waarom je zelfs op identieke schijven uit dezelfde batch verschillende datecodes op de chips ziet staan. Het is allemaal om het risico reeds by design zoveel mogelijk te spreiden.

Door Tweakers user ppl, maandag 30 december 2013 19:03

mux schreef op maandag 30 december 2013 @ 07:51:
Verder, over Avaton sprekend, lijkt mij dat je zowel op de supermicro als de ASRock gewoon gebruik wil maken van Intel IPMI/andere standaard remote management spullen die in de IME ingebouwd zitten en niks anders. Dat is niet verschillend of je de een of de ander koopt. We hebben het hier niet over custom remote management packages zoals in Dell/HP servers. Of mis ik hier iets?
In de praktijk blijken er heel veel verschillen te zitten in de remote management mogelijkheden van de diverse apparaten. Die van Supermicro scoort goed op de lijst. Het is nog maar de vraag of dit ook bij ASrock zo is en of zij niet, net zoals HP doet, wat inboekt aan mogelijkheden (bij HP moet je vaak een licentie kopen om bepaalde mogelijkheden te kunnen doen, bij Supermicro niet, daar werkt gewoon alles). Als dit belangrijk voor je is, is het wel iets om even verder naar te gaan kijken.
Dus IMO is het verschil tussen de bordjes uiteindelijk niets anders dan puur hardware-features en verbruik. En dan is de ASRock C2550D4I het meest interessante bord: voor een thuissituatie of klein bedrijf is 4xGBe niet boeiend, en op elk ander punt is hij superieur.
Beide bordjes voldoen maar de een is maar 20 euro meer dan de ander terwijl je daar bepaalde additionele features voor krijgt.
De Supermicro heeft een aardig nadeel met z'n SODIMM, minder SATA.
Dat kan net zo goed een groot voordeel zijn. Footprint met SODIMM is kleiner en we hebben hier tenminste ook wat resultaten bij gebruik van low voltage SODIMMs. Minder SATA is bij gebruik van ZFS in FreeBSD helemaal niet erg. Je wil toch een beperkt aantal schijven aan een controller hangen ivm performance: Remote backups server using FreeBSD, ZFS, and Rsync.
De 12V input maakt dat je je ATX voeding moet gaan modden om hem uberhaupt aan te kunnen zetten.
Bij ServeTheHome hebben ze hun tests gedaan met een doodnormale voeding en merken ze het volgende op in hun review: "There is a standard 24-pin ATX power connection plus a 4-pin CPU power connector.". Even verderop merken ze op dat er nog een extra molex aansluiting op het moederbord zit om een harde schijf te kunnen voorzien van stroom wat ze weer tot het volgende brengt: "In theory, one can have an entire system powered solely by the ATX power connector." In de comments komen ze daar op terug. Daarbij gaat het alleen om de 4-pin connector naast de gewone ATX connector. Dat zou de input moeten zijn voor die molex connector. Er is dus niets aan de hand als je die molex niet van plan bent om te gaan gebruiken.
En je hebt de supermicro momenteel alleen in C2750-variant, wat een aardige duit duurder is dan C2550. Granted, C2550 is nog niet geweldig leverbaar en staat nog niet default in de BBG, maar het is wel doorslaggevend.
Je linkt hier ook alleen naar de C2750 variant trouwens. Je kunt nog lager gaan zitten dan die C2550 als je het nog wat zuiniger wilt. Bij de C2350 moet je wel oppassen omdat die minder geheugen aan kan (16GB maximaal). Zie voor vergelijking ark.intel.com.
mux schreef op maandag 30 december 2013 @ 12:25:
En wat is daar mis mee? Je gaat de waarschijnlijkheid van crashen niet verbeteren door te mixen. Da's een statistische valkuil.
Dat is geen statistische valkuil, dit is praktijkervaring van de gemiddelde systeembeheerder (bij wie je overigens absoluut niet met statistiek mee aan moet komen zetten: of er wordt hard gelachen of je krijgt een rant). Je kunt er bijna vergif op innemen dat schijven uit dezelfde batch kort achter elkaar stuk gaan. Bij hardware dat z'n einddatum nadert is dat een gigantisch probleem omdat je ineens een forse investering moet doen waarbij we er dan maar vanuit gaan dat de schijven überhaupt nog makkelijk te verkrijgen zijn. Het is wel makkelijk op te vangen door bij diverse winkels te shoppen en wat op de plank te houden.

[Reactie gewijzigd op maandag 30 december 2013 19:03]


Door Tweakers user mux, maandag 30 december 2013 19:17

ppl schreef op maandag 30 december 2013 @ 19:03:
Dat is geen statistische valkuil, dit is praktijkervaring van de gemiddelde systeembeheerder (bij wie je overigens absoluut niet met statistiek mee aan moet komen zetten: of er wordt hard gelachen of je krijgt een rant). Je kunt er bijna vergif op innemen dat schijven uit dezelfde batch kort achter elkaar stuk gaan. Bij hardware dat z'n einddatum nadert is dat een gigantisch probleem omdat je ineens een forse investering moet doen waarbij we er dan maar vanuit gaan dat de schijven überhaupt nog makkelijk te verkrijgen zijn. Het is wel makkelijk op te vangen door bij diverse winkels te shoppen en wat op de plank te houden.
Maar dan nu de grote vraag: kun je dit onderbouwen met cijfers? Want ik ken die 'ervaring van systeembeheerders' - en het is 9 van de 10 keer eerder confirmation bias dan werkelijkheid, zeker met iets dat zo vaak gecorreleerd faalt als voedingen en harde schijven. Liggen de failures echt aan de HDDs, of aan het systeem waar ze in zitten? En kun je dit nuttig doortrekken naar zulke kleine hoeveelheden HDDs?

[Reactie gewijzigd op maandag 30 december 2013 19:17]


Door Tweakers user Midas.e, maandag 30 december 2013 19:23

mux schreef op maandag 30 december 2013 @ 19:17:
[...]


Maar dan nu de grote vraag: kun je dit onderbouwen met cijfers? Want ik ken die 'ervaring van systeembeheerders' - en het is 9 van de 10 keer eerder confirmation bias dan werkelijkheid, zeker met iets dat zo vaak gecorreleerd faalt als voedingen en harde schijven. Liggen de failures echt aan de HDDs, of aan het systeem waar ze in zitten? En kun je dit nuttig doortrekken naar zulke kleine hoeveelheden HDDs?
Ik kan wel uit praktijkervaring spreken, heb 2 sets schijven van totaal 24 disken, deze zijn nu 4 jaar oud en werken op 2 na nog allemaal. Schijven gaan stuk. Soms achter elkaar en soms niet. Vroeger met bijvoorbeeld de IBM Deskstar gingen ze achter elkaar dood maar tegenwoordig zijn schijven een stuk beter.

Door Tweakers user ppl, dinsdag 31 december 2013 00:31

mux schreef op maandag 30 december 2013 @ 19:17:
Maar dan nu de grote vraag: kun je dit onderbouwen met cijfers? Want ik ken die 'ervaring van systeembeheerders' - en het is 9 van de 10 keer eerder confirmation bias dan werkelijkheid, zeker met iets dat zo vaak gecorreleerd faalt als voedingen en harde schijven.
Zoals ik al zei ligt statistiek en cijfertjes niet goed bij systeembeheerders, harde cijfers zijn er niet omdat ze die niet bijhouden. Er zijn een aantal bedrijven die dat wel doen zoals Google en Backblaze, die hebben er een complete paper over geschreven. Wat er wel vaak gebeurd is dat men de inkooporder nakijkt of de datum die ze op de schijf zelf hebben gezet (documentatie, heel wat anders dan statistiek bedrijven!). Ook de andere gegevens op het label zeggen vaak genoeg. Bij grote uitval is dat 1 van de belangrijkste dingen om te doen. Je moet het zien als je multimeter pakken als de lamp niet aan gaat om te kijken of er nog stroom op staat. Het is een diagnostische test. Als je dan een trend ziet weet je genoeg (hee, toch nog een beetje statistiek :)). Dat is waar het bij systeembeheer vooral om gaat: monitoren aka het spotten van trends.

Moet ik wel bij zeggen dat dit geen tot weinig zin heeft bij clients, vooral notebooks niet en dit eigenlijk alleen bij servers gebruikt wordt.

Bovenstaande is vrij wisselend van bedrijf tot bedrijf. Ik heb ze gezien waarbij ze een hele strategie hadden met schijven bestellen ivm vele problemen uit het verleden en bedrijven waarbij ze dit totaal niet toepasten. Het heeft dus echt niets met statistiek te maken maar met praktijkervaring. Wie het een paar keer heeft meegemaakt wapent zich er tegen.
Liggen de failures echt aan de HDDs, of aan het systeem waar ze in zitten? En kun je dit nuttig doortrekken naar zulke kleine hoeveelheden HDDs?
Dat zijn vragen die er altijd gesteld worden en waar onderzoek naar wordt gedaan. Vaak kun je het wel vrij snel zien als het aan het systeem ligt. Als er ineens een heleboel tegelijk gaan is dat al een indicatie, als dat is voor hun verwachte levensduur is het al helemaal alarmerend. Het probleem zelf speelt ook een rol: hoe faalt de schijf zelf? Soms kan het problemen zijn met de firmware van disk, de controller of de combinatie hiervan. Zoals je hierboven al hebt kunnen lezen is het voor bepaalde zaken niet nuttig om te doen.

Echter, zoals Midas.e ook al aangeeft, weet je dat een schijf zal gaan falen. Daarom pas je dingen als RAID toe, gebruik je backups en heb je iets aan monitoring. Dat voorkomt niet alles. Net als de fout die jij nu maakt: alles in cijfers en statistiek willen vastleggen. Als er iets onnauwkeurig en nietszeggend is dan is het wel statistiek want dat kun je verdraaien tot het gewenste eruit komt. Niet alles laat zich in cijfers of letters vastleggen. Daarom is men ook zo happig op werkervaring ;)

Misschien een voorbeeld handig: als een disk in een server failed kan dat vrij normaal zijn. Daar neem je notie van en je lost het op. Failed een tweede disk dan moet je wat argwanend zijn en even checken naar dingen als fabricagedatum, firmware, hoe lang draait de server al, etc. Kun je binnen een seconde of 15 regelen. En zo ga je steeds verder. Het helpt je in deze om te bepalen wat te doen. Op moment dat er meerdere gaan is er iets goed mis en zul je dus op zoek moeten gaan. Het betekent echter ook dat je moet verwachten dat er meer gaan en je daarop instellen. De machine is ineens onbetrouwbaar geworden. Als een machine net nieuw is ga je eens kijken naar problemen met disks/controller en je belt desnoods de fabrikant/leverancier. Is hij richting z'n levenseinde dan ga je versneld een vervanging van de gehele machine inplannen (ook hier leert de praktijk ons dat als 1 ding gaat er nog meer gaat, wat weten we niet vooraf maar je moet het wel verwachten).

Met een duur woord noem je dit "proactief beheer". Het is in eerste instantie reageren op een incident maar in tweede instantie het voorkomen van. Je mag het ook paranoia noemen maar het zorgt er wel voor dat diensten beschikbaar blijven. Dat is het allerbelangrijkste. Voor thuis is dit van wat minder belang omdat je daar minder afhankelijk bent van IT zaken dan een bedrijf.

Edit: De ASrock maakt voor een aantal van z'n SATA poorten gebruik van de Intel controller, voor een ander aantal eentje van Marvell. Met deze laatste zijn er wat problemen in o.a. Linux melden een aantal mensen op diverse fora (ze posten hun ervaringen dus geen bron o.i.d.). Ik heb zo'n idee dat dit alleen geldt wanneer je de RAID mogelijkheden gebruikt (dat wil je bij zfs niet) maar het is wel verstandig om vooraf hier toch even wat meer onderzoek naar te doen. Bij Debian hebben ze in ieder geval een bug van deze controller maar dit betreft wel RAID: http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=700975

[Reactie gewijzigd op donderdag 2 januari 2014 20:52]


Door Tweakers user FireDrunk, vrijdag 3 januari 2014 08:43

De Marvell controller ondersteund true-AHCI (dus echt zonder specifieke driver). En in die modus was het ook het idee om hem in te zetten. Daardoor ben ik persoonlijk niet zo bang voor problemen icm FreeBSD / Linux & ZFS.

Door Tweakers user Gralgrathor, dinsdag 7 januari 2014 12:10

Ik had een soortgelijke opstelling bedacht als de bovenstaande zuinige variant - maar dan in een goedkope Sharkoon T9 kast. Het idee was twee Icy wisselframes te plaatsen (3x5.25 = 5x3.5) om zo ruimte te creeeren voor 10+ 3.5" schijven die gemakkelijk geswapt kunnen worden (ik werk graag met oude rommel). Het interweb zegt dat het mogelijk moet zijn om de ASrock C2750 mini-ITX board in de T9 te monteren - we zullen zien. Ik wil er trouwens iets meer mee dan alleen files serven - mogelijk dat ik er een esxi server van maak. De CPU is geen powerhouse, maar zou voldoende vermogen moeten leveren om een paar guests te draaien.

Door Quad, woensdag 15 januari 2014 13:30

Mux,

Bedankt voor ontwerp, ik heb hem al nagebouwd.
Ik heb alleen een kast gebruikt die ik nog had liggen met voldoende ruimte voor 5 HD's en 2 ssd's
Nu zitten daar nog geen ventilatoren in, wel 4 aansluitingen (1 boven de processor in de boven plaat, 2 naast elkaar op de achterplaat), allemaal 80 mm ) en 1 in het voorfront direct voor mijn harddisks, daar kan zelfs een 100 mm fan in).

Kan jij of iemand anders een aanbeveling doen hoeveel Fans ik moet plaatsen, Moeten die in toerental kunnen variëren, Hoe laag moet het aantal dB's zijn? Heeft iemand daar veel ervaring mee ?

met vriendelijke expirimenteer groeten,
Quad

Door Quad, woensdag 15 januari 2014 17:56

Ondertussen heb ik een low cost en low noise casefan gevonden van 80 mm en meteen besteld (4-pens, 18 dB en Puls Wide Modulation oftewel vanuit moederbord toerental instelbaar..
http://afuture.nl/productview.php?productID=130174

merk: Gelid 8 PWM Silent voor maar euro 6,99 incl.
Voor de liefhebber: let op er zijn er nu nog maar 5
Hier de specs:
http://nl.hardware.info/p...t-8-pwm#tab:specificaties

Hopelijk kan ik hier iemand mee verder helpen.
Nu nog zoeken naar een 100 mm front case fan....

Door Tweakers user DXaroth, vrijdag 17 januari 2014 14:30

@Mux: Enige reden waarom de X10SLL+-F wordt aangeraden, en dan niet de X10SLH-F ? deze heeft ipv 1 dual-NIC i210AT, 2 single-NIC i210AT .. maar heeft wat andere leuke eigenaardigheden:

- 6x SATA3 ipv 2x + 4x sata2
- 2 USB3 poorten aan de achterkant (Overigens blijven er 6 USB2 poorten op zitten, echter zijn er 2 meer die via headers te verkrijgen zijn)

En zou, voor zover ik kan zien, ongeveer dezelfde prijs moeten zijn als de X10SLL+F

Door Tweakers user mux, vrijdag 17 januari 2014 15:14

Zo te zien is de X10SLH-F nu de betere keuze, puur en alleen vanwege de beschikbaarheid! Verder een zo goed als (iig voor deze bbg) gelijke featureset.

Door Tweakers user TrsvK, dinsdag 21 januari 2014 18:38

Is een systeem zonder SSD en een simpele Pentium G3220 geen beter alternatief voor het Xeon systeem? Je geeft zelf aan de processorkracht niet nodig te hebben en freeNAS kan gemakkelijk vanaf een usb stick worden gedraaid.. Scheelt toch snel 250 euro en bied ruimte voor een 6e schijf. :) Je hebt dan wel geen VTd maar denk dat het een goed alternatief voor het avoton systeem kan zijn...

[Reactie gewijzigd op dinsdag 21 januari 2014 18:42]


Door Tweakers user mux, dinsdag 21 januari 2014 18:44

Uiteraard is er zoveel aan te mixen&matchen als je zelf wil, voor je eigen toepassingen kun je prima een G3220 in een serverbord dauwen en ECC behouden. In deze BBG heb ik gekozen voor de Xeon i.v.m. VT-D, als een opstapje in meer dan één opzicht ten opzichte van Avoton. Daarnaast is de BBG ook erg gericht op lomp grote fileservers (orde 20TiB+ raw) - dan maakt die 200 euro extra niet zoveel uit en geeft het je wel een hoop meer flexibiliteit.

Voor een echte budget BBG moet je nog even wachten.

Door Tweakers user TrsvK, dinsdag 21 januari 2014 18:57

Dan wacht ik die af.

Ik zou een NAS met ZFS en ECC willen bouwen met 6x 4tb in Raidz2 (16tb bruikbaar). Ik heb een tijdje de ASRock C2550D4I op mijn lijstje gehad maar na aanleiding van je post over de beperkte singlecore performance lijkt een pentium mij toch wat handiger.. en aangezien zon systeem goedkoper en waarschijnlijk ook zuiniger is, snap ik niet zo goed waarom de asrock nog mee doet.

Door Tweakers user mux, dinsdag 21 januari 2014 19:27

12xSATA, goede ondersteuning, ECC en zuinig. Dat zijn de redenen :) De volgende BBG gaat geen ECC hebben, dus daar zul je niet heel veel aan hebben.

In jouw geval zou ik het grote ZFS of 10+TB RAID NAS topic in de gaten houden en een geschikt mobo daaruit trekken. De Celeron G1820 is tegenwoordig ook al beschikbaar en hakt weer 2 tientjes van de prijs af, dus die kun je ook gebruiken.

Door Tweakers user TrsvK, donderdag 23 januari 2014 21:47

Dat is inderdaad wel leuk om later uit te kunnen breiden. Ik sta op het punt om de ASRock C2550D4I te bestellen maar twijfel nog over het geheugen. Ik zie dat jij voor 1.5v 1333mhz kingston reepjes hebt gekozen. Zelf denk ik meer aan: Crucial CT2KIT102472BD160B reepjes. Die zijn wat sneller en staan op 1.35v.

Zou je kunnen toelichten waarom je voor de Kingstons hebt gekozen?

Door Tweakers user mux, donderdag 23 januari 2014 21:56

Ik heb zelf erg weinig voordeel gezien van DDR3L (1.35V) geheugen tov 1.5V geheugen in dit soort toepassingen. DDR3L heeft zin als je heel veel reepjes geheugen heel druk gebruikt, maar anders is de besparing minimaal tot geheel afwezig. Verder is de extra snelheid ook verloren op Avoton.

Ik heb dat geheugen gekozen vanwege compatibiliteit en beschikbaarheid. Maar zoals altijd geldt: verschillende mensen hebben verschillende behoeftes - doe vooral wat je zelf het beste lijkt :)

Door mvh, donderdag 30 januari 2014 15:48

Nu die Supermicro X10SLL-F in prijs is gestegen en de X10SLL+-F moeilijk te vinden is , is de Asrock E3C226D2I geen optie ? Heeft 2 x Intel i210 on board . Zal wel minder verbruiken dan die Supermicro . my 2 cents .

Door Tweakers user mux, donderdag 30 januari 2014 15:55

Weet je, ik ga vanaf nu definitief stoppen met het aanraden van supermicro borden. Ze zijn historisch zó slecht met leverbaarheid en zo obscuur met hun specs... I'm done with them.

De ASRock E3C226D2I is een uitstekende optie - ASRock is in embedded en serverborden doorgaans een zuinige keuze en deze is aardig geprijsd. Zo op het eerste oog een prima bord. Ik zal hem in eigen handen willen hebben voordat ik er echt een definitief oordeel over kan vellen.

Door mvh, donderdag 30 januari 2014 16:56

Of de intel S1200V3RPS , is µATX ( 4 dimm slots ) . Het goedkoopste Intel serverboard dat je kan vinden . ;)

Door Tweakers user Mezz0, dinsdag 11 februari 2014 17:03

Even een gedachtenkronkel waar ik de laatste weken me zit nu ik de avotons heb (weder)gevonden.

Ik ben van plan om 2 C2550D4I bordjes te bestellen en daar beide esx op te installeren. Dankzij de 2 netwerkaansluitingen en een optionele netwerkkaart wil ik deze gebruiken voor mn esxlab. ik weet dat dit allemaal op 1 server kan met daarop esxi server virtulized maar dit is toch mooier :).

Door Tweakers user indian, woensdag 12 februari 2014 12:58

Mezz0 schreef op dinsdag 11 februari 2014 @ 17:03:
Even een gedachtenkronkel waar ik de laatste weken me zit nu ik de avotons heb (weder)gevonden.

Ik ben van plan om 2 C2550D4I bordjes te bestellen en daar beide esx op te installeren. Dankzij de 2 netwerkaansluitingen en een optionele netwerkkaart wil ik deze gebruiken voor mn esxlab. ik weet dat dit allemaal op 1 server kan met daarop esxi server virtulized maar dit is toch mooier :).
Volgens mij kan je dan toch beter voor de Xeon (+ vt-d icm esxi) route gaan. Deze is 2 x zo krachtig dan de 2750, en deze 2750 is weer 2 x zo krachtig dan de 2550. Ook ga je met 2 bordjes meer stroom verbruiken dan 1 Xeon setup. Dus afgezien van de hoeveelheid sata/sas en nic aansluitingen op de avalons zitten er niet veel voordelen aan (zeker niet als je gaat virtualiseren waarbij je minder fysieke nics nodig hebt).

Door Tweakers user Mezz0, woensdag 12 februari 2014 16:40

Nu ik er zo over denk ga ik denk ik voor de Xeon opstelling met 32 GB.

Reactie formulier
(verplicht)
(verplicht, maar wordt niet getoond)
(optioneel)

Voer de code van onderstaand anti-spam plaatje in: