Mission des Bot-Trap.de Projekts

GEMEINSAM wehren wir uns gegen Content Grabber, Duplicate Content, Pseudo Sumas, Referer Spam, Sauger Tools usw.
Hierzu wird derzeit ein frei verfuegbares PHP Script PAGE RESTRICTOR (DOWNLOAD) angeboten, das sich selbst laufend mit neuen Versionen und Signaturen updated.
Mehr hierzu unter PageRestrictorMission
Weitere Scripte koennen folgen.

Die Mitarbeit am Projekt ist nicht nur extrem erwünscht sondern auch ausdrücklich wichtig!

Denn Bot-Trap ist ein gemeinnuetziges Projekt - da es uns (Webmaster) alle angeht - gegen Bots, User Agents, Leecher etc. die sich nicht an die "Netikette" halten.
Dieses Projekt soll die Zusammenarbeit gegen "Nutzniesser des WWW im Grauzonenbereich"(*) foerdern.

Das Projekt hat KEINERLEI SINN wenn ich selber jede einzelne IP selber rausfinden/sammeln muss.

(*) Leider muss man sich schon so geschwollen ausdruecken, da sich sonst selbige gleich "angepisst" fuehlen, den Rest kennt man ja.. Abmahnungen & Co.

--

alternatives WARUM: gefunden auf http://www.gibtnet.de/joomla/index.php?option=com_content&task=view&id=604&Itemid=46

Das Internet ist bunt, schillernd und informativ. Doch es ist auch Feindesland, und erbarmungslos mit dem, der nicht hinter die Fassade schaut. Waren es vor Jahren noch zerstörerische Viren und spionierende Trojaner, die unbedarfte User um ihre Daten brachten, sind es heute Searchbots, Email-Adressen-Sammler und anderes nicht-destruktives Ungeziefer, das Webmastern das Leben schwer macht. Mit .htaccess oder robots.txt gibt es zwar Möglichkeiten, sich solche Plagegeister vom Hals bzw. der eigenen Web-Präsenz zu halten. Jedoch ist das eine (.htaccess) nicht ganz trivial zu bedienen und das andere (robots.txt) für manche Searchbots offenbar von eher bittenden als bindenden Charakter - sie ignorieren deren Einträge oft einfach. Hier bietet sich das mit PHP entwickelte Programm page.restrictor von bot-trap.de an.
Valid XHTML 1.0 Transitional :: Valid CSS :: Powered by WikkaWiki