Seite vor Suchmaschinen verstecken?
lima-city → Forum → Die eigene Homepage → Homepage Allgemein
agent
arbeit
aussehen
bot
code
erfassung
glauben
halten
http
machen
nutzen
satz
sinn
suche
system
wissen
zauberwort
-
Hallo
Ich würde gerne wissen wie man Seiten vor der Erfassung durch Suchmaschinen schützen kann. Reicht es, wenn einfach keiner den Link kennt?
Würde gerne ein bisschen rumtesten ohne das mit Passwort schützen zu müssen.
Ich kenne nur den metatag noarchive aber da wird ja glaube ich lediglich nicht in den Cache geladen?
mfg -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage
-
Gib doch den Titel genau so in Google ein.
Wirst dann auf robots.txt" stossen.
Google danach und du wirst eine Lösung finden. -
jocko schrieb:
Gib doch den Titel genau so in Google ein.
Wirst dann auf robots.txt" stossen.
Google danach und du wirst eine Lösung finden.
0.o oh.. da hab ich wohl was komplett falsches bei der Google-Suche eingegeben
fabo schrieb:
Das Zauberwort lautet robots.txt. Leider halten sich nicht alle Suchmaschinen/Crawler daran. Man könnte aber parralel zu der robots.txt auch noch das System von http://www.bot-trap.de nutzen.
robots.txt sollte so aussehen:
User-agent: * Disallow: /
Vielen Dank, das hat mir die Arbeit erspart mich da einzuarbeiten.
//EDIT: macht der Satz eigentlich Sinn? Naja ihr wisst schon was ich meine :)
mfg
Beitrag zuletzt geändert: 9.2.2011 18:03:54 von voloya -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage