Elvis56686 schreef op dinsdag 05 juli 2011 @ 13:42:
[...]
Heb je überhaupt gelezen wat ik schreef? Die 30 connecties heb je absoluut niet nodig. De vertraging bij meerdere connecties onstaat ondermeer omdat er niet 8 bestanden tegelijk worden weggeschreven maar in jouw geval 30 of zelfs 50. Die bestanden worden ook allemaal weer gescand waardoor je een veelvoud aan lees en schrijfacties krijgt. Daarnaast staan er veel meer verbindingen open wat de snelheid ook niet ten goede komt, daardoor wordt de processor zwaarder belast, scannen gaat langzamer etc. Doe nou eens een praktijktest en zet ipv 30 connecties 6 connecties aan. Tenzij je een 120 Mbit+ verbinding hebt zal dit geen verschil maken. Ik heb net nog een keer getest, met een UPC fiber60 haal ik 2,5 MB(megabyte dus) met 1 connectie.
Overigens, ik ben er vrij zeker van dat de bottleneck meer in de doorvoersnelheid van het opslagmedium zit dan in de processor en geheugen.
Ja ik heb gelezen wat je wou doorgeven en begrijp jou volkomen.
Weet je wat handiger zou zijn? mij eerst vragen welke news-reader ik gebruik, elke news-reader gaat anders met connecties om.
En doorvoersnelheid van opslagmedium? Als ik auto- rar en par en data dus de data meteen wegschrijf naar mijn HDD zonder conversie, denk je dat een 120Mbit verbinding een PATA 133 vol kan krijgen, ik heb dit al zo vaak voorbij zien komen dit verhaal maar wist jij dat een oude HDD en dan heb ik het over een PATA 133 alsnog normaal presteert in een 1Gbit netwerk, het verschil zit hem in de Mbits en Mbytes waarbij PATA een burst snelheid heeft van 133MBytes per seconde en met een laatste generatie HDD resulteert dat in 50-60MBytes per seconde waarbij jouw news-reader indien jij auto- rar en par uit hebt staan dus maar met 15MBytes data doorgeeft aan jouw HDD.
FYI ik gebruik newsbin waarbij newsbin 1 rar bestand pakt en die in mijn situatie hakt in 30 kleine stukjes, Grabit pakt per connectie die je instelt 1 rar bestand en die zorgt ook voor een hogere load op jouw processor itt newsbin.
Ik heb trouwens ook geen PATA schijven in mijn systeem maar SATA 10K voor de downloads die daarna vanuit 10K uitpakt en wegschrijft naar een 2TB WD BLACK en daarna leegt mijn newsbin de 10K schijf nadat hij succesvol heeft gerepareerd en heeft uitgepakt dus die hoeft nooit groot te zijn en in mijn geval dus 150GB.
edit:
hier had ik nog niet op gereageerd:
"Overigens, ik ben er vrij zeker van dat de bottleneck meer in de doorvoersnelheid van het opslagmedium zit dan in de processor en geheugen."
Klopt in zoverre als jij jouw news-reader niet laat uitpakken en repareren, dan is het puur data doorsturen en wegschrijven naar HDD, maar wat had ik getypt:
"Bottleneck zit hem in je proc en geheugen, als je merkt dat je met 50 connecties data sneller binnen hebt dan dat je proc alle bestanden kan scannen dan heb je teveel connecties, zodoende dat ik 30 heb ipv 50."
Dan kan je proc. de datastroom niet bijbenen op het gebied van scannen om te kijken of het gerepareerd moet worden.
Jij had het over lezen toch?
[
Voor 13% gewijzigd door
Sm0k3r op 05-07-2011 14:58
]
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."