Schrift
[thread]93[/thread]

Googlebot?: Wie erkennen? (Seite 2)



<< |< 1 2 3 >| >> 22 Einträge, 3 Seiten
betterworld
 2003-11-11 22:43
#9668 #9668
User since
2003-08-21
2613 Artikel
ModeratorIn

user image
Wenn man nicht will, dass der Googlebot alles sieht, kann man meta-Angaben verwenden. Die genaue Syntax weiss ich gerade nicht auswendig, aber sie steht bei SelfHTML.
Im UserAgent schickt jeder Bot einen String mit, der ihn klar identifiziert. Serioese Bots (wie Suchmaschinen) werden das garantiert nicht faelschen. Ebenso verpflichtet der gute Ton die Bots, eine URL anzugeben, wo man als Admin nachlesen kann, was der Bot will. Beispiel:Googlebot/2.1 (+http://www.googlebot.com/bot.html)


Wer ist hier eigentlich wer? ist n00b = FreeFaq?
jan
 2003-11-11 22:50
#9669 #9669
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
cloaking: robots andere inhalte präsentieren als usern und damit besseres ranking erzielen.

sanktion: byby google. du fliegst ganz einfach, ohne vorwarnung, raus aus dem index und kommst so schnell nicht wieder rein.
Free Faq
 2003-11-11 22:52
#9670 #9670
User since
2003-09-10
141 Artikel
BenutzerIn
[default_avatar]
hmm okok, dennoch fänd ich das für die Statistiken praktisch
Haut mich nicht, ich bin ein Noob!
jan
 2003-11-11 23:13
#9671 #9671
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
verlass dich auf die useragents, ich denke, http://www.pgts.com.au/pgtsj/pgtsj0208d.html sollte dir da genug infos bringen.
Free Faq
 2003-11-11 23:57
#9672 #9672
User since
2003-09-10
141 Artikel
BenutzerIn
[default_avatar]
cool danke :)
Haut mich nicht, ich bin ein Noob!
esskar
 2003-11-12 00:24
#9673 #9673
User since
2003-08-04
7321 Artikel
ModeratorIn

user image
[quote=betterworld,11.11.2003, 21:43]Wenn man nicht will, dass der Googlebot alles sieht, kann man meta-Angaben verwenden. Die genaue Syntax weiss ich gerade nicht auswendig, aber sie steht bei SelfHTML.[/quote]
ob die sich dran halten, ist ne andere frage!!!
Heromaster
 2003-11-12 13:01
#9674 #9674
User since
2003-08-05
220 Artikel
BenutzerIn
[default_avatar]
Ich habe im Laufe der Zeit ne .htaccess aufgebaut, die mit ca. 40 Einträgen gefüllt ist und unerwünschte Spam-Bots ,Harvestern und Download-Manager fernhält. Wenn Interesse besteht, werde ich mich mal auf die Suche begeben und sie posten oder per PN rumgeben.
Derjenige, der zwei Hasen jagt, lässt einen zurück und verliert den anderen.
jan
 2003-11-12 13:09
#9675 #9675
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
bzgl. downloadmanagern: ok, aber die lassen meist auch einfach eine "wie soll ich mich identifizieren"-option zu... und dann kannst du nix dagegen machen.

spam-bots und harvester: entweder es ist ein bot von einem dümmlichen kind, das mit den gewonnenen daten nix wirklich nervendes tun kann oder er wird von einem einigermaßen intelligenten menschen gebaut - und der wird wohl, ganz simpel, seinen useragent ständig rotieren lassen, sodass du nur seine ip bannen kannst. tut er das von einem dialup, hast du so gut wie keine chance. tut er's über proxys, kannst du die zwar gerne bannen... aber, was hast du davon? nehmen wir an, er würde das ganze fröhlich über den t-online proxy betreiben ... und hups, du bannst den fix - und knüppelst damit eine recht ansehliche userzahl ins aus.
es ist ein jammer, aber es gibt einfach nicht viele wirkungsvolle methoden - man könnte natürlich eine trap aufbauen, die in der robots.txt verbieten und wer dennoch reingeht, bekommt einen temp-ban für ein paar stunden. aber auch das ist nur beschränkt wirksam.
tja - und damit kommen wir zum ende: wirksam ist nur rohe gewalt ;)
und bot-traps finde ich für meinen teil ohnehin nicht sonderlich sinnvoll - schickt man den nun also ein paar tausend mal zwischen generierten seiten hin und her - super. man hält ihn damit eventuell ein bisschen auf, treibt dafür aber seinen traffic in die höhe - ergebnis: negativ. aber nur für einen selbst.
Heromaster
 2003-11-12 14:10
#9676 #9676
User since
2003-08-05
220 Artikel
BenutzerIn
[default_avatar]
Quote
bzgl. downloadmanagern: ok, aber die lassen meist auch einfach eine "wie soll ich mich identifizieren"-option zu... und dann kannst du nix dagegen machen.

Jepp, da gebe ich Dir vollkommen recht. Gegen Downloadmanager ist man so gut wie machtlos. Allerdings kann man zumindest einen (kleinen) Teil ausschließen.
Quote
spam-bots und harvester: entweder es ist ein bot von einem dümmlichen kind, das mit den gewonnenen daten nix wirklich nervendes tun kann oder er wird von einem einigermaßen intelligenten menschen gebaut - und der wird wohl, ganz simpel, seinen useragent ständig rotieren lassen, sodass du nur seine ip bannen kannst.

Ja und nein. Meine Erkenntnisse beruhen auf das Auswerten diverser Weblogs von meinen Kunden. Und darauf habe ich meine Regeln aufgebaut. Es ist mir klar, das man nicht jeden erwischen kann, aber wie oben erwähnt, einen kleinen Teil fängt man damit ab. Zu den Proxies: Proxies sind kein Allheilmittel, um seine IP zu verschleiern. Man kann eine Anfrage an den Proxy starten, der daraufhin die richtige IP-Adresse freigibt. Frag mich jetzt nicht, wie's geht, da ich ziemlich vergesslich bin. Ich hab diese Lösung auch irgendwo auf meiner Platte, da ich dies benötigte, um AOL-Benutzer zu identifizieren.
Quote
und bot-traps finde ich für meinen teil ohnehin nicht sonderlich sinnvoll - schickt man den nun also ein paar tausend mal zwischen generierten seiten hin und her - super.

Code: (dl )
1
2
3
RewriteEngine On
RewriteCond ...
RewriteRule ... [F]
;)\n\n

<!--EDIT|Heromaster|1068639071-->
Derjenige, der zwei Hasen jagt, lässt einen zurück und verliert den anderen.
jan
 2003-11-12 14:42
#9677 #9677
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
klar, denyen würde ich da auch als einzig sinniges anerkennen ... mit bottraps meinte ich eher das, was einige wohl als hobby betreiben, dynamisch generierte seiten als pseudo-guestbook-ausgabe mit jeder menge falscher emailadressen drauf ... da können sich die bots dann austoben und gehen zufrieden nach hause, so zumindest der plan.

deine lösung zum herausfinden von den wahren benutzern hinter einem proxy würde mich interessieren. ich kenne da nichts. wenn der proxy die ip in HTTP_VIA, HTTP_FOR etc pp nicht mitübermittelt, hat man keine chance.
<< |< 1 2 3 >| >> 22 Einträge, 3 Seiten



View all threads created 2003-11-11 12:20.