bots ausschließen alle vhosts

Apache, Lighttpd, nginx, Cherokee
Post Reply
linuxnewbie
Posts: 150
Joined: 2003-01-24 16:00
 

bots ausschließen alle vhosts

Post by linuxnewbie »

Ist es möglich das wenn zb ein bot die seite

rootforum.org/ besucht
sucht er ja meist nach einer robots.txt
zb
rootforum.org/robots.txt

wie kann ich das machen das ähnlich eines alias wie zb für /manual/
/phpmyadmin/
usw
auch für die robots.txt gilt?
so das ich nicht für jeden vhost das extra einstellen müßte oder in jedes webverzeichnis eine robots.txt reinpacken muss
dodolin
Posts: 3840
Joined: 2003-01-21 01:59
Location: Sinsheim/Karlsruhe
Contact:
 

Re: bots ausschließen alle vhosts

Post by dodolin »

Eine robots.txt wird immer nur im DocRoot gesucht, also als /robots.txt. Unterverzeichnisse kannst du in dieser einen robots.txt getrennt angeben, wenn du möchtest. Es lässt sich allerdings wohl nicht vermeiden, dass man pro vhost eine separate robots.txt benötigt. Du könntest höchsten mit symlinks arbeiten, wenn du das möchtest, aber auch hier benötigst du halt pro vhost eine Datei (bzw. Link).
dspeicher
Posts: 167
Joined: 2002-05-20 20:16
Location: Hörstel
Contact:
 

Re: bots ausschließen alle vhosts

Post by dspeicher »

und wie wärs mit aliasen?

Code: Select all

Alias /robot.txt "/var/www/robots.txt
oder sowas... nur ne idee... ob es geht... keine ahnung... Ansonsten vielleicht mit mod_rewrite? mehr fällt mir nicht mehr ein ;)
Post Reply