Acties:
  • 0 Henk 'm!

  • jdenijs
  • Registratie: Februari 2010
  • Laatst online: 09-09 12:45
Ik ben van plan over te stappen van Z97 naar een Z170 bord.
Dit omdat ik met mijn Asus Maximus Z97 VII Gene niet de volledige snelheid van een M2.0 ssd kan benutten.

De setup die ik zou willen aanschaffen (deels in bezit heb) is als volgt:
i5-6600K
Asus Republic Of Gamers Z170 MAXIMUS VIII GENE
M2.0 Samsung 950 Pro 256GB
1 normale SSD Samsing 850 PRO 256 GB
2 normale HDD
16 GB DDR4
2 X MSI GTX970 GAME

Nu is de vraag of ik dan wel genoeg PCI-lanes heb om dit allemaal maximaal te kunnen aansturen?

2x GTX970 in SLI zou al 2x8 = 16 lanes zijn.
Dan de M2.0 Samsung 950 Pro 256GB ook nog eens 4 lanes.
Dat zijn dus samen 20 lanes.

De i5-6600K kan maar 16 lanes aan.
Betekend dat dat het dan niet zal gaan werken? of dat iets niet op zn maximale aangestuurd kan worden?

Ik heb heel de ochtend zitten google maar ik kom er niet uit.
Wie zou mij kunnen helpen? Alvast bedankt.

Acties:
  • +1 Henk 'm!

Verwijderd

Je moet onderscheid maken tussen PCI-E lanes van de CPU en van de Chipset.

De 16 lanes van de CPU kunnen op een Z170 moederbord als 16 / 8+8 / 8 + 4 + 4 geconfigureerd worden.

Twee kaarten in SLI wordt dus 8 + 8.

Daarnaast heeft de chipset zelf 20 lanes ter beschikking voor randapparatuur. Deze worden gebruikt voor SATA/SATA express/M.2/USB 3/USB3.1/Lan etc... Afhankelijk van wat de fabrikant geintegreerd heeft op het moederbord.

Een enkele M.2 aansluiting is niet zo'n probleem, op erg volle moederborden vervalt dan misschien de (nutteloze) sata-express aansluiting. Pas als je naar 2 of 3 M.2 aansluitingen gaat moet je er echt functies voor uit gaan schakelen.

Met jouw enkele M.2 SSD zit je dus prima.

Acties:
  • 0 Henk 'm!

  • jdenijs
  • Registratie: Februari 2010
  • Laatst online: 09-09 12:45
Kijk hier heb ik wat aan. helemaal duidelijk.
Bedankt!!!

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 30 december 2015 @ 12:51:
Daarnaast heeft de chipset zelf 20 lanes ter beschikking voor randapparatuur. Deze worden gebruikt voor SATA/SATA express/M.2/USB 3/USB3.1/Lan etc... Afhankelijk van wat de fabrikant geintegreerd heeft op het moederbord.
De chipset zelf is middels DMI 3.0 met de CPU verbonden, wat neerkomt op een bandbreedte van PCIe 3.0 met 4 lanes. Dus 4 lanes is alles wat de chipset zelf naar de CPU kan sturen. De chipset kan wel meer lanes intern aansturen en heeft dus een 'overcommit' aan bandbreedte. Dat wil zeggen dat dingen gaan vertragen indien je meerdere functies van de chipset tegelijkertijd gaat gebruiken.

Sommige borden gebruiken ASpeed of PLX PCIe switches om de bandbreedte die de CPU zelf levert verder op te delen. Dan snoep je dus bandbreedte van je SLI videokaart setup ten behoeve van andere functies zoals NVMe/M.2.

Een en ander wordt duidelijk met een diagram, zoals deze van de Z170 chipset voor Skylake CPUs:

Afbeeldingslocatie: http://www.tomshw.it/data/thumbs/1/1/9/8/intel-z170-chipset-block-diagram-300d3afdb847dd3abcf492fe4916f9783.jpg

Bij een ouder diagram van de X79 chipset staan de lanes en bandbreedte er ook bij:

Afbeeldingslocatie: http://static.tweakers.net/ext/f/EW18OnD4pcThVU9cpkKWIlWg/full.jpg

Merk op dat de chipset bandbreedte in gigabit wordt omschreven, en de PCIe lanes in gigabyte - lekker handig. Maar 16GiB versus 2GiB (20Gb) dus. Dat is bij de vorige generatie chipsets; de chipset van Skylake platform heeft een DMI 3.0 dus het equivalent van 40Gbit ter beschikking, wat bijna 4GB/s oplevert.

De chipset kan dus inderdaad leuk 20 lanes leveren, maar heeft slechts 4 lanes echte bandbreedte en die zul je met alle apparaten op de chipset moeten delen. Helaas. :P

[ Voor 32% gewijzigd door Verwijderd op 30-12-2015 14:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 30 december 2015 @ 13:54:
De chipset kan dus inderdaad leuk 20 lanes leveren, maar heeft slechts 4 lanes echte bandbreedte en die zul je met alle apparaten op de chipset moeten delen. Helaas. :P
De reden dat dat zo is opgezet is dat het in de praktijk niet vaak zal voorkomen dat de DMI interface de bottleneck is.

DMI 3 kan iets van 3.9GB/s (inderdaad bijna 4 :-))

Een Samsung 950 pro gebruikt daar onder optimale omstandigheden max 2,5GB/s van
Gigabit ethernet is 0,125GB/s of als je duur wil doen 10Gb ethernet: 1,25GB/s optimaal. Dan heb je nog steeds ruimte over op je DMI link.
USB3.1 is vergelijkbaar met 10Gb ethernet dus 1,25GB/s.

Je komt dus pas in de problemen als je van twee M.2 SSDs tegelijk leest of als je tegelijk van 1 SSD leest en netwerk en USB3.1 wil belasten.

Voor de consument niet een situatie waarvoor je wil betalen.

De professional grijpt naar een Xeon processor met 40PCI-E lanes.

edit: als vergelijking: Van DDR4 geheugen lezen gaat met 34GB/s. Voor HPC kan het dus best nuttig zijn om 10 gestripte M.2 SSDs aan de CPU te hangen.

Dan ben je nog iets van 25% langzamer dan geheugen toegang als je van disk moet lezen. Plus de overhead van disk->memory->cpu natuurlijk. Dus uiteindelijk kies je dan toch eerder voor heel veel RAM Dan is dit een leuke basis: http://www.supermicro.nl/...rd/Xeon/C600/X10SRL-F.cfm

[ Voor 18% gewijzigd door Verwijderd op 30-12-2015 14:54 ]


Acties:
  • 0 Henk 'm!

  • Viper72
  • Registratie: Februari 2005
  • Niet online
Intressant, is dat dan ook de reden dat de beschikbare bandbreedte voor mijn onboard M.2 950 Pro in een ASUS Z170 Sabertooth Mark 1, dus nooit 32 GB/s kan behalen zoals men adverteert?

Zie ook hier vanuit Samsung Magician 4.9, de M.2 is daadwerkelijk via de chipset PCI-E met 4 lane's gekoppeld, maar kan max. 10 Gbps aan. De rest van die bandbreedte wordt dus geshared door je USB, Sound etc etc op je board?

Afbeeldingslocatie: http://i66.photobucket.com/albums/h245/Mpower72/Magician%20II_zpshaf2lt7f.png

Is dit correct wat ik nu schets? Ik heb in mijn geval het gevoel dat ik in PCI-E x2 mode draai, wat max 10 Gbps betekend.

Volgens MB Manual wordt M.2 ge-shared met een physiek PCI-E Slot (zit niks in) :

The M.2 Socket 3 shares bandwith with PCIe x16_3 Slot

(dit slot is PCI-E 3.0 x 4), dus in dit geval zou ik dan voor een M.2 PCI-E storage device de halve bandbreedte kunnen benutten = PCI-E 3.0 x 2 wat ook weer overeenkomt met max. 10 Gbps.

Zo ja dat verklaart mij dan meteen waarom je niet de max. IOPS ziet op een M.2 PCI-E device.

[ Voor 22% gewijzigd door Viper72 op 30-12-2015 18:45 ]

New Build in Progress


Acties:
  • 0 Henk 'm!

Verwijderd

10Gbps per lane, dus 40Gbps totaal in het screenshot dat je geeft.

Hoe kom je aan 32GB/s? Dat is 400 gigabit. En omdat PCIe een 8/10-bit encoding ofwel een 128/130-bit encodingschema gebruikt, deel je niet door 8. Dus wat je zegt kan niet kloppen.

Een NVMe SSD kan maximaal 4 lanes op PCIe 3.0 dus minder dan 4GB/s verstoken. In de praktijk is dat nog iets minder.

Je moederbord specs vertellen ook iets anders dan jij zegt:
*1: The PCIe x16_3 slot shares bandwidth with SATA6G_56. The PCIe x16_3 is default set at x2 mode.
Supports Intel® RST for PCIE RAID storage.
*2: The M.2 socket shares SATA ports with SATA Express_1 port. Adjust BIOS settings to use an M.2 SATA device.
Pagina: 1