Ik zoek een manier om het volgende te bereiken:
- ik heb een server met directadmin welke zelf domeinen aanmaakt via een extern script/api, deze worden opgeslagen op de locatie /home/USERNAME/domains/DOMAINNAME/public_html
Nu kunnen dit 2 verschillende soorten 'domeinen' zijn namelijk:
- een eigen domein
of
- een tijdelijk 'test' domein in vorm van een subdomein
Wat ik nu wil is dat zodra er (automatisch) een tijdelijk test subdomein wordt aangemaakt dat voor dit test domein de crawlers/robots automatisch worden geblokkeerd. maar dit mag weer niet bij de losse domeinen.
Het tijdelijk test domein is altijd in de trend van; ?????.eendomein.nl, waarbij testdomain.nl altijd hetzelfde is, de ????? wordt telkens random gegenereerd.
Heeft iemand een idee hoe ik dus voor deze hele server (centos6) een globale manier kan vinden dat crawlers/robots/spyders/indexers standaard worden geblokkeerd bij subdomeinen met ?????.eendomein.nl
Dus deze test subdomeinen mogen niet vindenbaar geindexeerd worden in zoekmachines.
Ik dacht zelf aan een toevoeging in de httpd.conf, maar geen idee hoe en of dit zou werken.
Het achteraf toevoegen van een .htaccess bestand in de website map of wijziging in de website code is eigenlijk geen optie.
Iemand een idee?
- ik heb een server met directadmin welke zelf domeinen aanmaakt via een extern script/api, deze worden opgeslagen op de locatie /home/USERNAME/domains/DOMAINNAME/public_html
Nu kunnen dit 2 verschillende soorten 'domeinen' zijn namelijk:
- een eigen domein
of
- een tijdelijk 'test' domein in vorm van een subdomein
Wat ik nu wil is dat zodra er (automatisch) een tijdelijk test subdomein wordt aangemaakt dat voor dit test domein de crawlers/robots automatisch worden geblokkeerd. maar dit mag weer niet bij de losse domeinen.
Het tijdelijk test domein is altijd in de trend van; ?????.eendomein.nl, waarbij testdomain.nl altijd hetzelfde is, de ????? wordt telkens random gegenereerd.
Heeft iemand een idee hoe ik dus voor deze hele server (centos6) een globale manier kan vinden dat crawlers/robots/spyders/indexers standaard worden geblokkeerd bij subdomeinen met ?????.eendomein.nl
Dus deze test subdomeinen mogen niet vindenbaar geindexeerd worden in zoekmachines.
Ik dacht zelf aan een toevoeging in de httpd.conf, maar geen idee hoe en of dit zou werken.
Het achteraf toevoegen van een .htaccess bestand in de website map of wijziging in de website code is eigenlijk geen optie.
Iemand een idee?
[ Voor 3% gewijzigd door rob3rt op 05-11-2014 16:41 ]