Hilfe:Spam: Unterschied zwischen den Versionen

1.525 Bytes hinzugefügt ,  9. Januar 2011
→‎Strategien zur Abwehr: Vor- und Nachteile der Methoden
K (→‎Wiki-Spam?: dudenbug)
(→‎Strategien zur Abwehr: Vor- und Nachteile der Methoden)
Zeile 31: Zeile 31:
=== Weblinks verbieten ===
=== Weblinks verbieten ===
Der einfachste Weg: man erlaubt keine Weblinks mehr bzw. stellt sie nicht mehr dar. Anwender können keine Quellen mehr verlinken, was für ein Online-Lexikon nicht akzeptabel ist!
Der einfachste Weg: man erlaubt keine Weblinks mehr bzw. stellt sie nicht mehr dar. Anwender können keine Quellen mehr verlinken, was für ein Online-Lexikon nicht akzeptabel ist!
;Vorteil: sehr einfach umzusetzen
;Nachteil: Für ein Onlinelexikon nicht geeignet


=== Mensch vs. Maschine ===
=== Mensch vs. Maschine ===
Man prüft bei jedem Abspeichern eines Inhaltes, ob der Zugriff durch einen Mensch oder durch eine Maschine (bzw. Computeralgorithmus) erfolgt. Dazu stellt man eine Aufgabe, die nur ein Mensch einfach lösen kann, eine Maschine jedoch nicht. Bekannt ist das als ''CAPTCHA'' (=Akronym für ''Completely Automated Public Turing test to tell Computers and Humans Apart'').<ref>{{Wikipedia2|1=CAPTCHA|2=CAPTCHA}}</ref>. Die Akzeptanz der Anwender ist hier allerdings auch nicht sehr hoch, da man im Regelfall bei jedem Zugriff eine Aufgabe lösen muss. Sowas ''nervt''.
Man prüft bei jedem Abspeichern eines Inhaltes, ob der Zugriff durch einen Mensch oder durch eine Maschine (bzw. Computeralgorithmus) erfolgt. Dazu stellt man eine Aufgabe, die nur ein Mensch einfach lösen kann, eine Maschine jedoch nicht. Bekannt ist das als ''CAPTCHA'' (=Akronym für ''Completely Automated Public Turing test to tell Computers and Humans Apart'').<ref>{{Wikipedia2|1=CAPTCHA|2=CAPTCHA}}</ref>. Die Akzeptanz der Anwender ist hier allerdings auch nicht sehr hoch, da man im Regelfall bei jedem Zugriff eine Aufgabe lösen muss. Sowas ''nervt''.
;Vorteil: Für Anwender bekannte Methoden
;Nachteile:
:* nicht barrierefrei
:* stört alle Anwender auch wenn keine Weblinks gespeichert werden sollen, vor allem Vielschreiber
:* relativ hoher Programmieraufwand oder für Integration bestehender Techniken
:* künstliche Intelligenzen werden immer besser, die für den Mensch zu lösende Komplexität höher


=== Weblinksyntax ändern ===
=== Weblinksyntax ändern ===
Zeile 43: Zeile 51:


Hier ist die Aufgabe für den Benutzer, die Anleitung zu lesen, zu verstehen und das gelernte richtig anzuwenden. Diese Hürde ist für intelligente und motivierte Benutzer einfach zu nehmen, ein Computeralgorithmus müsste den Text lesen, richtig verstehen und daraufhin seine Methode passend verändern. Da dies sehr aufwendig ist, wird es vermutlich so schnell keinen Bot geben, der vollautomatisch Weblinks ins Rhein-Neckar-Wiki speichern kann, außer jemand entwickelt einen Bot speziell für dieses Wiki. Das dürfte sich für professionelle Botnetzbetreiber aber kaum lohnen, lediglich Menschen, die gezielt dem Rhein-Neckar-Wiki schaden wollen würden diesen Aufwand treiben (Motivation).
Hier ist die Aufgabe für den Benutzer, die Anleitung zu lesen, zu verstehen und das gelernte richtig anzuwenden. Diese Hürde ist für intelligente und motivierte Benutzer einfach zu nehmen, ein Computeralgorithmus müsste den Text lesen, richtig verstehen und daraufhin seine Methode passend verändern. Da dies sehr aufwendig ist, wird es vermutlich so schnell keinen Bot geben, der vollautomatisch Weblinks ins Rhein-Neckar-Wiki speichern kann, außer jemand entwickelt einen Bot speziell für dieses Wiki. Das dürfte sich für professionelle Botnetzbetreiber aber kaum lohnen, lediglich Menschen, die gezielt dem Rhein-Neckar-Wiki schaden wollen würden diesen Aufwand treiben (Motivation).
;Vorteile:
:* Weblinks werden durch die passenden Vorlagen gleich in einheitliche Formen gebracht
:* Externe Links können bei sich ändernder Rechtslage (''Haftung für Weblinks'') schnell und einheitlich an neue Anforderungen angepasst werden
;Nachteile:
:* Wikiaktivisten aus anderen Projekten (Wikipedia, andere Stadtwikis) müssen sich umgewöhnen, betrifft vor allem die Vielschreiber
:* Copy-Paste von Artikelquelltext aus anderen Projekten bzw. die Übernahme von Vorlagen aus anderen Wikis wird erschwert
:* Bestehende Weblinks müssen bei nachträglicher Einführung nachträglich konvertiert werden, was ein sehr hoher Aufwand sein kann!


=== Hybride Lösungen und Heuristiken ===
=== Hybride Lösungen und Heuristiken ===
Denkbar wäre eine Hybridlösung, die den Weblink-Spam-Blocker kombiniert mit einer CAPTCHA-Methode. Hier müsste ein Anwender sich zum Beispiel einmal pro Tag als ''Mensch'' beweisen indem er beispielsweise eine Aufgabe löst. Man könnte dann die IP-Adresse des Benutzers oder ein speziell gesetztes Cookie dazu verwenden, um den Spamblocker selektiv abzuschalten. Das würde die Akzeptanz bei regelmäßigen Vielschreibern im Wiki erhöhen, allerdings könnten diese Anwender dann Weblinks einbauen, die von anderen Autoren nicht geändert oder gespeichert werden könnten, denn der Spamblocker wirkt nicht nur bei neu eingegebenen Weblinks sondern auch wenn man einen Artikel, der einen Weblink bereits enthält beim Speichern einer Änderung. So gesehen wäre diese Ausnahme für Vielschreiber zwar eine gewisse Erleichterung, würde das generelle Problem aber für die Gelegenheitsnutzer verschlimmern.  
Denkbar wäre eine Hybridlösung, die den Weblink-Spam-Blocker kombiniert mit einer CAPTCHA-Methode. Hier müsste ein Anwender sich zum Beispiel einmal pro Tag als ''Mensch'' beweisen indem er beispielsweise eine Aufgabe löst. Man könnte dann die IP-Adresse des Benutzers oder ein speziell gesetztes Cookie dazu verwenden, um den Spamblocker selektiv abzuschalten. Das würde die Akzeptanz bei regelmäßigen Vielschreibern im Wiki erhöhen, allerdings könnten diese Anwender dann Weblinks einbauen, die von anderen Autoren nicht geändert oder gespeichert werden könnten, denn der Spamblocker wirkt nicht nur bei neu eingegebenen Weblinks sondern auch wenn man einen Artikel, der einen Weblink bereits enthält beim Speichern einer Änderung. So gesehen wäre diese Ausnahme für Vielschreiber zwar eine gewisse Erleichterung, würde das generelle Problem aber für die Gelegenheitsnutzer verschlimmern.  
;Vorteil: höhere Akzeptanz bei Vielschreibern
;Nachteil: Artikel mit herkömmliuchen Weblinks können durch Gelegenheitsnutzer nicht abgespeichert werden, selbst wenn sie keinen Weblink selbst eingebaut haben, Akzeptanzproblem bei Gelegenheitsnutzern


=== Wikilink-Fix-Bot ===
=== Wikilink-Fix-Bot ===
Als Abhilfe für die Probleme bei der obigen Hybridlösung käme wiederum ein Bot in Frage, der permanent bei allen gespeicherten Artikeln prüft, ob ein autorisierter Mensch-Benutzer einen Weblink gespeichert hat und diesen in die geänderte Syntax konvertiert. Das ist aber grundsätzlich aufwendig und prinzipiell fehlerbehaftet.
Als Abhilfe für die Probleme bei der obigen Hybridlösung käme wiederum ein Bot in Frage, der permanent bei allen gespeicherten Artikeln prüft, ob ein autorisierter Mensch-Benutzer einen Weblink gespeichert hat und diesen in die geänderte Syntax konvertiert. Das ist aber grundsätzlich aufwendig und prinzipiell fehlerbehaftet.


;Vorteil: Würde die Nachteile der Hybridlösung automatisiert ausgleichen
;Nachteile:
:* sehr hoher Aufwand für die Implementierung
:* hohe Komplexität
:* Fehleranfälligkeit


== siehe auch ==
== siehe auch ==
21.072

Bearbeitungen