Niet echt ergens voor, behalve dat het een handige manier is om je files over de verschillende servers te distribueren

En ik vroeg me gewoon af of Onno toevallig een dfs kende dat beter werkt dan de genen die kees getest heeft.
Dit is internet, of een plaatje nu wel of niet van dezelfde server afkomt boeit niet.
Klopt

Als je dus pages wilt serven van server A, plaatjes van server B en scripts van server C, dan maak je dat toch kenbaar via URLs in de HTML?
Klopt

Echter kost het nauwelijks werk om alle images te serveren voor 1 server, behalve dat je wilt dat ie altijd online is.
Vergeet alleen niet dat we in jouw idee maar 3 servers kunnen gebruiken, we hebben er zes voor t.net/got die we natuurlijk niet dan "nauwelijks werk" (images), "nauwelijks werk" (stylesheets/javascripts helemaal een lachtertje) "enorm veel werk" (php/scripts-files)
Kortom, we willen graag het zwaarste werk transparant verdelen over de servers, namelijk de executie van die scripts.
Nou kunnen we daar lang en kort over discussieren of die wel zo zwaar zouden moeten zijn, maar laten we voor het gemak aannemen dat dat zo is.
Dan wil je dus die scripts met zo min mogelijk moeite en zo min mogelijk single-point-of-failures over de servers verdelen.
Scheiden op een andere manier is ook niet echt handig, de php-scripts moeten op al die servers staan, net zoals de templatefiles.
Kortom al enkele honderden files, onderhevig aan enige verandering etc.
Die wil je dan niet 6x moeten ftp-en.
Waarom zo moeilijk doen met een distributed filesystem?
De bedoeling is juist dat het niet moeilijk is

Als dat wel moeilijk blijkt te zijn (wat het dus ook blijkt) zal het iets minder moeilijk gezocht moeten worden, bijvoorbeeld met rsync.
[edit]
Immers: de browser zelf, start per externe gerefereerde file (image, stylesheet) een aparte connectie op, dus of dat nu vanaf dezelfde webserver komt of vanaf een andere webserver is totaal niet interessant.
Ochja, dat wist ik al hoor

Enige waar het nog interessant is is de keep-alive gedoe.