Ist es möglich das wenn zb ein bot die seite
rootforum.org/ besucht
sucht er ja meist nach einer robots.txt
zb
rootforum.org/robots.txt
wie kann ich das machen das ähnlich eines alias wie zb für /manual/
/phpmyadmin/
usw
auch für die robots.txt gilt?
so das ich nicht für jeden vhost das extra einstellen müßte oder in jedes webverzeichnis eine robots.txt reinpacken muss
bots ausschließen alle vhosts
Re: bots ausschließen alle vhosts
Eine robots.txt wird immer nur im DocRoot gesucht, also als /robots.txt. Unterverzeichnisse kannst du in dieser einen robots.txt getrennt angeben, wenn du möchtest. Es lässt sich allerdings wohl nicht vermeiden, dass man pro vhost eine separate robots.txt benötigt. Du könntest höchsten mit symlinks arbeiten, wenn du das möchtest, aber auch hier benötigst du halt pro vhost eine Datei (bzw. Link).
Re: bots ausschließen alle vhosts
und wie wärs mit aliasen?
oder sowas... nur ne idee... ob es geht... keine ahnung... Ansonsten vielleicht mit mod_rewrite? mehr fällt mir nicht mehr ein ;)
Code: Select all
Alias /robot.txt "/var/www/robots.txt