Bearbeiten von „Hilfe:Spam

Sie bearbeiten diese Seite ohne angemeldet zu sein. Statt eines Benutzernamens wird die Stadtwiki:IP-Adresse in der Versionsgeschichte aufgezeichnet. Melden Sie sich doch an!

Die Bearbeitung kann rückgängig gemacht werden. Bitte prüfe den Vergleich unten, um sicherzustellen, dass du dies tun möchtest, und veröffentliche dann unten deine Änderungen, um die Bearbeitung rückgängig zu machen.

Aktuelle Version Dein Text
Zeile 5: Zeile 5:
Spam ist im Internet ursprünglich Synonym für ''unerwünschte E-Mails''. Der Begriff hat sich im WWW zunächst erweitert um die Bedeutung ''Suchmaschinen-Spamming''. Ziel von Suchmaschinen-Spamming ist es, bestimmte Webseiten von möglichst vielen anderen Webseiten aus mit bestimmten Schlüsselbegriffen zu verlinken, um die Chance zu erhöhen, dass man der der Websuche nach einem dieser Schlüsselbegriffe dann nicht auf einer der vielen Webseiten landet, sondern direkt auf der Webseite, die von allen anderen Seiten aus verlinkt ist, auch bekannt als ''Linkfarming''<ref name=linkfarm>{{Wikipedia2|1=Linkfarm|2=Linkfarm}}</ref>.
Spam ist im Internet ursprünglich Synonym für ''unerwünschte E-Mails''. Der Begriff hat sich im WWW zunächst erweitert um die Bedeutung ''Suchmaschinen-Spamming''. Ziel von Suchmaschinen-Spamming ist es, bestimmte Webseiten von möglichst vielen anderen Webseiten aus mit bestimmten Schlüsselbegriffen zu verlinken, um die Chance zu erhöhen, dass man der der Websuche nach einem dieser Schlüsselbegriffe dann nicht auf einer der vielen Webseiten landet, sondern direkt auf der Webseite, die von allen anderen Seiten aus verlinkt ist, auch bekannt als ''Linkfarming''<ref name=linkfarm>{{Wikipedia2|1=Linkfarm|2=Linkfarm}}</ref>.


Manche WWW-Angebote erlauben es Benutzern eigene Inhalte abzuspeichern, die dann wiederum als Teil einer Webseite angezeigt werden. Bekannte Funktionen aus der pre-''Web 2.0''-Zeit sind ''Gästebucheinträge'' auf Webseiten oder Beiträge in ''Webforen''.  
Manche WWW-Angebote erlaufen es Benutzern eigene Inhalte abzuspeichern, die dann wiederum als Teil einer Webseite angezeigt werden. Bekannte Funtkionen aus der pre-''Web 2.0''-Zeit sind ''Gästebucheinträge'' auf Webseiten oder Beiträge in ''Webforen''.  


Seit ''Web 2.0'' erweitert sich dieses Feld um ''Weblogs'' (''Blogs''), wo es häufig ''Kommentarfunktionen'' gibt, die etwa ''Gästebucheinträgen'' entsprechen und vor allem um Webangebote, bei denen das ''Mitmachen'' zentraler Bestandteil ist wie bei ''Wikis''. Weitere weniger bekannte Mitmachangebote sind collaborative Tools wie ''pastebin''. Verstärkt wird das ganze noch, wenn einzelne Beiträge per ''XML-Feed'' angeboten werden und auf vielen anderen Webseiten dann eingebunden werden.
Seit ''Web 2.0'' erweitert sich dieses Feld um ''Weblogs'' (''Blogs''), wo es häufig ''Kommentarfunktionen'' gibt, die etwa ''Gästebucheinträgen'' entsprechen und vor allem um Webangebote, bei denen das ''Mitmachen'' zentraler Bestandteil ist wie bei ''Wikis''. Weitere weniger bekannte Mitmachangebote sind collaborative Tools wie ''pastebin''. Verstärkt wird das ganze noch, wenn einzelne Beiträge per ''XML-Feed'' angeboten werden und auf vielen anderen Webseiten dann eingebunden werden.


Alle ''Mitmachformen'' haben gemeinsam, dass sie einerseits als Bestandteil des World-Wide-Webs öffentlich angezeigt werden (im Gegensatz zu E-Mails, die jeder Benutzer nur selbst sieht, Ausnahmen: Mailinglistenarchive im WWW) und dass man in den selbst erstellten Inhalten auch Weblinks hinterlassen kann, also unterm Strich, dass man als (anonymer) Benutzer Inhalte und Weblinks auf fremde Webseiten plazieren kann. Man könnte es auch ''outgesourctes Linkfarming''<ref name=linkfarm>{{Wikipedia2|1=Linkfarm|2=Linkfarm}}</ref> bezeichnen.
Alle ''Mitmachformen'' haben gemeinsam, dass sie einerseits als Bestandteil des World-Wide-Webs öffentlich angezeigt werden (im Gegensatz zu E-Mails, die jeder Benutzer nur selbst sieht, Ausnahmen: Mailinglistenarchive im WWW) und dass man in den selbst erstellten Inhalten auch Weblinks hinterlassen kann, also unterm Strich, dass man als (anonymer) Benutzer Inhalte und Weblinks auf fremde Webseiten plazieren kann. Man könnte es auch ''outgesourctes Linkfarming''<ref name=linkfarm>{{Wikipedia2|1=Linkfarm|2=Linkfarm}} bezeichnen.


Der Urheber von ''Linkspam'' oder ''Suchmaschinen-Spam'' muss aber sehr sehr viele Links möglichst weltweit verbreiten, um einen messbaren Effekt zu erreichen (''Reichweite''), denn sonst würden Suchmaschinen das einfach ignorieren<ref>{{Wikipedia2|1=Linkpopularität|2=Linkpopularität}}</ref>.  
Der Urheber von ''Linkspam'' oder ''Suchmaschinen-Spam'' muss aber sehr sehr viele Links möglichst weltweit verbreiten, um einen messbaren Effekt zu erreichen (''Reichweite''), denn sonst würden Suchmaschinen das einfach ignorieren<ref>{{Wikipedia2|1=Linkpopularität|2=Linkpopularität}}.  


Daher '''automatisiert''' man diesen Teil so weitgehend, dass ein Mensch nur noch auf einen Knopf drücken braucht um die Maschinerie in Gang zu setzen. Die Maschinerie ist im einfachsten Fall ein einfacher Rechner (besser bekannt auch als ''Bot''<ref>{{Wikipedia2|1=Bot|2=Bot}}</ref>, abgeleitet von ''Robot''), der eine vordefinierte Liste von Webforen, Wikis und Gästebüchern abarbeitet und überall vollautomatisch einen Eintrag hinterlässt. Hier muss aber jemand diese Liste pflegen und ein einzelner Rechner braucht sehr lange, um hunderte oder tausende Foren oder Wikis zu ''beladen''. Die Generierung von Listen muss man also automatisieren (zum Beispiel indem Suchmaschinen verwendet werden) und die ''Beladung'' aller Präsenzen verteilt man auf viele untereinander vernetzte Rechner (''Botnetz''<ref>{{Wikipedia2|1=Botnetz|2=Botnetz}}</ref>). Da viele Rechner viel Geld kosten, versuchen professionelle ''Botnetzbetreiber'' durch (wiederum automatisierte) Hackerangriffe auf PCs und Server im Internet viele Rechner unter ihre Kontrolle zu bringen, die dann im Auftrag  bestimmte Funktionen ausführen, zum Beispiel Generieren von Linklisten, Angriffe auf Server und PCs im Internet, verschicken von E-Mails (Spam zwecks Linkverbreitung und Mailviren zwecks Vergrößerung des Botnetzes), oder zur Koordination aller Systeme untereinander (''Botnetz-Master'').  
Daher '''automatisiert''' man diesen Teil so weitgehend, dass ein Mensch nur noch auf einen Knopf drücken braucht um die Maschinerie in Gang zu setzen. Die Maschinerie ist im einfachsten Fall ein einfacher Rechner (besser bekannt auch als ''Bot''<ref>{{Wikipedia2|1=Bot|2=Bot}}</ref>, abgeleitet von ''Robot''), der eine vordefinierte Liste von Webforen, Wikis und Gästebüchern abarbeitet und überall vollautomatisch einen Eintrag hinterlässt. Hier muss aber jemand diese Liste pflegen und ein einzelner Rechner braucht sehr lange, um hunderte oder tausende Foren oder Wikis zu ''beladen''. Die Generierung von Listen muss man also automatisieren (zum Beispiel indem Suchmaschinen verwendet werden) und die ''Beladung'' aller Präsenzen verteilt man auf viele untereinander vernetzte Rechner (''Botnetz''<ref>{{Wikipedia2|1=Botnetz|2=Botnetz}}</ref>). Da viele Rechner viel Geld kosten, versuchen professionelle ''Botnetzbetreiber'' durch (wiederum automatisierte) Hackerangriffe auf PCs und Server im Internet viele Rechner unter ihre Kontrolle zu bringen, die dann im Auftrag  bestimmte Funktionen ausführen, zum Beispiel Generieren von Linklisten, Angriffe auf Server und PCs im Internet, verschicken von E-Mails (Spam zwecks Linkverbreitung und Mailviren zwecks Vergrößerung des Botnetzes), oder zur Koordination aller Systeme untereinander (''Botnetz-Master'').  


Schadsoftware, die nicht nur ein Zielsystem angreift, sondern das Zielsystem vor allem dazu missbraucht, um sich selbst weiter zu verbreiten, kennt man auch unter dem Begriff ''Wurm''<ref>{{Wikipedia2|1=Computerwurm|2=Computerwurm}}</ref>. Ein Wurm verbreitet und vermehrt sich selbst ohne weitere Interaktion und meist ohne zentrale Kontrolle. Der Teil des Wurmes, der darüber hinaus eine Aufgabe erfüllt, zum Beispiel Weblinks verbreiten, Mails verschicken oder Passwörter oder Onlinebanking-Transaktionen ''mitlauschen'' ist dann der eigentliche ''Schadcode''.
Schadsoftware, die nicht nur ein Zielsystem angreift, sondern das Zielsystem vor allem dazu missbraucht, um sich selbst weiter zu verbreiten, kennt man auch unter dem Begriff ''Wurm''. Ein Wurm verbreitet und vermehrt sich selbst ohne weitere Interaktion und meist ohne zentrale Kontrolle. Der Teil des Wurmes, der darüber hinaus eine Aufgabe erfüllt, zum Beispiel Weblinks verbreiten, Mails verschicken oder Passwörter oder Onlinebanking-Transaktionen ''mitlauschen'' ist dann der eigentliche ''Schadcode''.


Weltweit gibt es Millionen von infizierten PCs und Servern, die verschiedene Funktionen als ''Bots'' wahrnehmen, in der Regel ohne das Wissen der Besitzer der Systeme. Diese Botnetze werden durch ihre ''Betreiber'' kommerziell vermarktet, etwa wenn ein Auftraggeber billig ''10 Millionen E-Mails verschicken'' will, seine Webpräsenz die zum Beispiel ein Lifestylemedikament (Potenzmittel etc) anbietet per ''Suchmaschinen-Spamming'' bekannter zu machen oder einfach nur um weiteren Schadcode zu verbreiten.
Weltweit gibt es Millionen von infizierten PCs und Servern, die verschiedene Funktionen als ''Bots'' wahrnehmen, in der Regel ohne das Wissen der Besitzer der Systeme. Diese Botnetze werden durch ihre ''Betreiber'' kommerziell vermarktet, etwa wenn ein Auftraggeber billig ''10 Millionen E-Mails verschicken'' will, seine Webpräsenz die zum Beispiel ein Lifestylemedikament (Potenzmittel etc) anbietet per ''Suchmaschinen-Spamming'' bekannter zu machen oder einfach nur um weiteren Schadcode zu verbreiten.
Zeile 24: Zeile 24:
Um Wikispam zu entfernen, muss man die betroffenen Artikel (im einfachsten Fall) auf eine ältere Version zurücksetzen. Der Aufwand beträgt hier ungefähr 30 Sekunden für einen geübten Anwender oder Administrator. WikiSPAM ist allerdings sehr häufig und das bedeutet für die [[Stadtwiki:Administratoren]] häufig einen großen Aufwand für die Beseitigung der Spuren und die Wiederherstellung von Artikeln nach Angriffen und das Recherchieren und Pflegen von IP-Blocklisten und so weiter.  
Um Wikispam zu entfernen, muss man die betroffenen Artikel (im einfachsten Fall) auf eine ältere Version zurücksetzen. Der Aufwand beträgt hier ungefähr 30 Sekunden für einen geübten Anwender oder Administrator. WikiSPAM ist allerdings sehr häufig und das bedeutet für die [[Stadtwiki:Administratoren]] häufig einen großen Aufwand für die Beseitigung der Spuren und die Wiederherstellung von Artikeln nach Angriffen und das Recherchieren und Pflegen von IP-Blocklisten und so weiter.  


Es gilt also, Spam möglichst schon von vornherein zu vermeiden.
Es gilt also, Spam möglichst schon von vorne herein zu vermeiden.


== Strategien zur Abwehr ==
== Strategien zur Abwehr ==
Zeile 31: Zeile 31:
=== Weblinks verbieten ===
=== Weblinks verbieten ===
Der einfachste Weg: man erlaubt keine Weblinks mehr bzw. stellt sie nicht mehr dar. Anwender können keine Quellen mehr verlinken, was für ein Online-Lexikon nicht akzeptabel ist!
Der einfachste Weg: man erlaubt keine Weblinks mehr bzw. stellt sie nicht mehr dar. Anwender können keine Quellen mehr verlinken, was für ein Online-Lexikon nicht akzeptabel ist!
;Vorteil: sehr einfach umzusetzen
;Nachteil: Für ein Onlinelexikon nicht geeignet


=== Mensch vs. Maschine ===
=== Mensch vs. Maschine ===
Man prüft bei jedem Abspeichern eines Inhaltes, ob der Zugriff durch einen Mensch oder durch eine Maschine (bzw. Computeralgorithmus) erfolgt. Dazu stellt man eine Aufgabe, die nur ein Mensch einfach lösen kann, eine Maschine jedoch nicht. Bekannt ist das als ''CAPTCHA'' (=Akronym für ''Completely Automated Public Turing test to tell Computers and Humans Apart'').<ref>{{Wikipedia2|1=CAPTCHA|2=CAPTCHA}}</ref>. Die Akzeptanz der Anwender ist hier allerdings auch nicht sehr hoch, da man im Regelfall bei jedem Zugriff eine Aufgabe lösen muss. Sowas ''nervt''.
Man prüft bei jedem Abspeichern eines Inhaltes, ob der Zugriff durch einen Mensch oder durch eine Maschine (bzw. Computeralgorithmus) erfolgt. Dazu stellt man eine Aufgabe, die nur ein Mensch einfach lösen kann, eine Maschine jedoch nicht. Bekannt ist das als ''CAPTCHA'' (=Akronym für ''Completely Automated Public Turing test to tell Computers and Humans Apart'').<ref>{{Wikipedia2|1=CAPTCHA|2=CAPTCHA}}</ref>. Die Akzeptanz der Anwender ist hier allerdings auch nicht sehr hoch, da man im Regelfall bei jedem Zugriff eine Aufgabe lösen muss. Sowas ''nervt''.
;Vorteil: Für Anwender bekannte Methoden
;Nachteile:
:* nicht barrierefrei
:* stört alle Anwender auch wenn keine Weblinks gespeichert werden sollen, vor allem Vielschreiber
:* relativ hoher Programmieraufwand oder für Integration bestehender Techniken
:* künstliche Intelligenzen werden immer besser, die für den Mensch zu lösende Komplexität höher


=== Weblinksyntax ändern ===
=== Weblinksyntax ändern ===
Zeile 51: Zeile 43:


Hier ist die Aufgabe für den Benutzer, die Anleitung zu lesen, zu verstehen und das gelernte richtig anzuwenden. Diese Hürde ist für intelligente und motivierte Benutzer einfach zu nehmen, ein Computeralgorithmus müsste den Text lesen, richtig verstehen und daraufhin seine Methode passend verändern. Da dies sehr aufwendig ist, wird es vermutlich so schnell keinen Bot geben, der vollautomatisch Weblinks ins Rhein-Neckar-Wiki speichern kann, außer jemand entwickelt einen Bot speziell für dieses Wiki. Das dürfte sich für professionelle Botnetzbetreiber aber kaum lohnen, lediglich Menschen, die gezielt dem Rhein-Neckar-Wiki schaden wollen würden diesen Aufwand treiben (Motivation).
Hier ist die Aufgabe für den Benutzer, die Anleitung zu lesen, zu verstehen und das gelernte richtig anzuwenden. Diese Hürde ist für intelligente und motivierte Benutzer einfach zu nehmen, ein Computeralgorithmus müsste den Text lesen, richtig verstehen und daraufhin seine Methode passend verändern. Da dies sehr aufwendig ist, wird es vermutlich so schnell keinen Bot geben, der vollautomatisch Weblinks ins Rhein-Neckar-Wiki speichern kann, außer jemand entwickelt einen Bot speziell für dieses Wiki. Das dürfte sich für professionelle Botnetzbetreiber aber kaum lohnen, lediglich Menschen, die gezielt dem Rhein-Neckar-Wiki schaden wollen würden diesen Aufwand treiben (Motivation).
;Vorteile:
:* Weblinks werden durch die passenden Vorlagen gleich in einheitliche Formen gebracht
:* Externe Links können bei sich ändernder Rechtslage (''Haftung für Weblinks'') schnell und einheitlich an neue Anforderungen angepasst werden
;Nachteile:
:* Wikiaktivisten aus anderen Projekten (Wikipedia, andere Stadtwikis) müssen sich umgewöhnen, betrifft vor allem die Vielschreiber
:* Copy-Paste von Artikelquelltext aus anderen Projekten bzw. die Übernahme von Vorlagen aus anderen Wikis wird erschwert
:* Bestehende Weblinks müssen bei nachträglicher Einführung nachträglich konvertiert werden, was ein sehr hoher Aufwand sein kann!


=== Hybride Lösungen und Heuristiken ===
=== Hybride Lösungen und Heuristiken ===
Denkbar wäre eine Hybridlösung, die den Weblink-Spam-Blocker kombiniert mit einer CAPTCHA-Methode. Hier müsste ein Anwender sich zum Beispiel einmal pro Tag als ''Mensch'' beweisen indem er beispielsweise eine Aufgabe löst. Man könnte dann die IP-Adresse des Benutzers oder ein speziell gesetztes Cookie dazu verwenden, um den Spamblocker selektiv abzuschalten. Das würde die Akzeptanz bei regelmäßigen Vielschreibern im Wiki erhöhen, allerdings könnten diese Anwender dann Weblinks einbauen, die von anderen Autoren nicht geändert oder gespeichert werden könnten, denn der Spamblocker wirkt nicht nur bei neu eingegebenen Weblinks sondern auch wenn man einen Artikel, der einen Weblink bereits enthält beim Speichern einer Änderung. So gesehen wäre diese Ausnahme für Vielschreiber zwar eine gewisse Erleichterung, würde das generelle Problem aber für die Gelegenheitsnutzer verschlimmern.  
Denkbar wäre eine Hybridlösung, die den Weblink-Spam-Blocker kombiniert mit einer CAPTCHA-Methode. Hier müsste ein Anwender sich zum Beispiel einmal pro Tag als ''Mensch'' beweisen indem er beispielsweise eine Aufgabe löst. Man könnte dann die IP-Adresse des Benutzers oder ein speziell gesetztes Cookie dazu verwenden, um den Spamblocker selektiv abzuschalten. Das würde die Akzeptanz bei regelmäßigen Vielschreibern im Wiki erhöhen, allerdings könnten diese Anwender dann Weblinks einbauen, die von anderen Autoren nicht geändert oder gespeichert werden könnten, denn der Spamblocker wirkt nicht nur bei neu eingegebenen Weblinks sondern auch wenn man einen Artikel, der einen Weblink bereits enthält beim Speichern einer Änderung. So gesehen wäre diese Ausnahme für Vielschreiber zwar eine gewisse Erleichterung, würde das generelle Problem aber für die Gelegenheitsnutzer verschlimmern.  
;Vorteil: höhere Akzeptanz bei Vielschreibern
;Nachteil: Artikel mit herkömmlichen Weblinks können durch Gelegenheitsnutzer nicht abgespeichert werden, selbst wenn sie keinen Weblink selbst eingebaut haben, gravierendes Akzeptanzproblem bei Gelegenheitsnutzern.


=== Wikilink-Fix-Bot ===
=== Wikilink-Fix-Bot ===
Als Abhilfe für die Probleme bei der obigen Hybridlösung käme wiederum ein Bot in Frage, der permanent bei allen gespeicherten Artikeln prüft, ob ein autorisierter Mensch-Benutzer einen Weblink gespeichert hat und diesen in die geänderte Syntax konvertiert. Das ist aber grundsätzlich aufwendig und prinzipiell fehlerbehaftet.
Als Abhilfe für die Probleme bei der obigen Hybridlösung käme wiederum ein Bot in Frage, der permanent bei allen gespeicherten Artikeln prüft, ob ein autorisierter Mensch-Benutzer einen Weblink gespeichert hat und diesen in die geänderte Syntax konvertiert. Das ist aber grundsätzlich aufwendig und prinzipiell fehlerbehaftet.


;Vorteil: Würde die Nachteile der Hybridlösung automatisiert ausgleichen
;Nachteile:
:* sehr hoher Aufwand für die Implementierung
:* hohe Komplexität
:* Fehleranfälligkeit


== siehe auch ==
== siehe auch ==
Zeile 81: Zeile 58:


== Weblinks ==
== Weblinks ==
* {{Homepage2|www.spam.com|SPAM®}}
=== Quellen und Hintergrundinformationen ===
<small><references /></small>
<small><references /></small>


[[Kategorie:Hilfe für Autoren]]
[[Kategorie:Hilfe für Autoren]]

Urheberrechte beachten: Bitte kopieren Sie keine Inhalte, die nicht Ihre eigenen sind!

Sie geben uns hiermit Ihre Zusage, dass
  • Sie den Text nicht aus Wikipedia kopiert haben,
  • Sie den Text selbst verfasst haben
  • oder der Text entweder
    • Allgemeingut (public domain) ist
    • oder der Copyright-Inhaber seine Zustimmung gegeben hat.
Urheberrechte beachten
  1. Benutzen Sie keine urheberrechtlich geschützten Werke ohne Erlaubnis des Copyright-Inhabers!
  2. Falls dieser Text bereits woanders veröffentlicht wurde, weisen Sie bitte auf der Diskussion-Seite gesondert darauf hin.
  3. Bitte beachten Sie, dass alle Artikel im Rhein-Neckar-Wiki automatisch unter der der CC-by-nc-sa 2.5 stehen.
  4. Falls Sie nicht möchten, dass Ihre Arbeit von anderen verändert und verbreitet wird, dann drücken Sie nicht auf "Speichern".

Bitte beantworte die folgende Frage, um diese Seite speichern zu können (weitere Informationen):

Abbrechen Editierhilfe (wird in einem neuen Fenster geöffnet)

  [[]] · [[|]] · {{}} · · “” ‘’ «» ‹› „“ ‚‘ · ~ | °   · ± × ÷ ² ³ ½ · §
{{Weblink|1=|2=}} · [[Kategorie:]] · [[:Image:]] · <includeonly></includeonly> · <noinclude></noinclude> · #REDIRECT[[]] · {{DEFAULTSORT:}}

  {{Telefon|Vorwahl|Rufnummer}} · {{Telefax|Vorwahl|Rufnummer}} · {{E-Mail|info|example.com}} · {{Homepage|}} ·
{{Homepage2|1=|2=}} · {{Webseite|1=}} · {{Webseite2|1=|2=}} · {{Weblink|1=|2=}} · {{Wikipedia}} · {{Wikipedia2|1=|2=}} ·

Diese Seite ist in einer versteckten Kategorie enthalten: