KI – Kaum Intelligent

Zwei Freunde mit Hintergrund KI-Forschung möchten mit Mythen und Legenden zur künstlichen Intelligenz aufräumen. Dazu beleuchten Johannes und Gesina im Gespräch allgemeine und spezielle Fragen zum Thema KI.

https://kaum-intelligent.de

subscribe
share






episode 9: Was sind Social Bots?


  • Johannes Rabold
    • Twitter
    • Website
    • Email
    • GitHub
    • ResearchGate
    • ORCiD
  • Gesina Schwalbe
    • Email
    • Website
    • GitHub
    • ORCiD
    • ResearchGate
    • Twitter
    • Linkedin

In dieser Folge beschäftigen wir uns mit Social Bots; kleinen automatischen Programmen, die in sozialen Netzwerken vereinzelt helfen, aber auch weniger gute Intentionen haben können. Social Bots können stören, überfluten und Meinungen manipulieren. Die Forschung hat aber auch Tools hervorgebracht, die KI-gestützt gegen bösartige Bots vorgehen können.

Nochmal kurz für Beepo
  • Ein Bot (kleiner Roboter) wird normalerweise verstanden als ein Programm, das mit Nutzern über Textnachrichten interagieren kann. Z.B. kann man einen Bot haben, der auf eine Textanweisung in einem Chat hin das Licht ausmachen, oder über eine Chatnachricht Bescheid geben kann, wenn es eine neue Nachricht auf einem Nachrichtenkanal gab.
  • Social Bots sind Programme, die über soziale Netzwerke mit Menschen interagieren, und hier auch Schindluder treiben können.
  • Social Bots sind präsent: Es wird geschätzt, dass ca. 15% der Profile auf Twitter eigentlich Bots sind.
  • Man kann verschiedene Sachen dagegen tun und die Forschung ist aktiv daran, Maßnahmen wie Boterkenner zu entwickeln. Schau dir z.B. mal Botometer an.
Warum habt Johannes diese Folge vorbereitet?
  • Ich sehe, wie viele Social Media Plattformen und Kommentarspalten von demokratie- und wissenschaftsfeindlichen Äußerungen/Meinungen durchsetzt sind, und ich will nicht glauben, dass das das Meinungsbild der Gesellschaft widerspiegelt
  • Ich war interessiert an der Frage, inwiefern Social Bots das Stimmungsbild in Sozialen Medien verzerren können
  • Außerdem wollte ich wissen, wie man Social Bots erkennen kann und wie man sogar etwas dagegen unternehmen kann.
Was sind Social Bots?
  • Kleine Programme, die – meist in sozialen Netzen – automatisiert Handlungen vornehmen (z.B. menschliches Verhalten simulieren, siehe ELIZA, Joseph Weizenbaum)
  • Oft nennt man die Profile, welche solche Handlungen vornehmen, Bots.
  • Aufteilung in gutartige und bösartige Bots:
    • Gutartige Bots können zum Beispiel manuelle Arbeit abnehmen
      • Umrechnen von Währungen
      • Akkumulieren von Informationen
      • Reposts finden (z.B. auf Reddit)
    • Die BPB definiert drei Kategorien für Bots aus der bösartigen Ecke:
      • Überlaster: Plattform / User mit zu vielen Nachrichten bombardieren
      • Trendsetter: viele Nachrichten posten, die einen gewollten Trend unterstützen, um es nach mehr Unterstützern aussehen zu lassen)
      • Auto-Trolle: automatisierte, oft ablenkende Antworten auf Posts von Personen oder mit bestimmter Meinung)
Wie funktionieren sie?
  • Häufig stellen soziale Netzwerke eine Programmierschnittstelle (API) zur Verfügung.
  • Über APIs (=programmatische Schnittstellen) lassen sich Bots starten und steuern; z.B.:
    • Die Timeline lässt sich nach Schlüsselworten durchsuchen und der Bot kann mit (teilweise auch kontextsensitiven) Tweets antworten
  • Bot-Profile folgen oft einfach zufällig anderen Profilen, um ihre Reichweite zu erhöhen
  • „Intelligenz“ von Bots:
    • Oftmals nur vage basierend auf komplexer KI, wenn überhaupt (meistens reichen wenige statische Regeln)
    • Ausgeklügeltere Bots können aber auch Fragen beantworten oder ganze Konversationen führen (vgl. Chatbots)
Gefahren von Social Bots
  • Einschätzung: ca. 9-15 % der Twitter-Profile sind Bots (Varol et al., 2017)
  • Weitreichende und schnelle Auswirkungen durch Automatisierung
  • Menschen als soziale Wesen tendieren zum „Folgen der Masse“
  • Verzerrung des (politischen) Meinungsbildes
    • Ein Thema kann künstlich aufgeblasen werden; z.B.:
      • Politiker:innen werden gut oder von ihren Gegner:innen schlecht dargestellt
      • Falsch-Informationen über die Impf-Debatte können rasant verteilt werden
    • Aber noch recht unbekanntes Forschungs-Terrain: Die Größe des Einflusses von Social Bots ist umstritten.
Was kann man gegen sie tun?
  • Machine Learning gegen bösartige Social Bots
  • Z.B. Supervised ML (gelabeltes Datenset von Tweets; Bot ja oder nein)
    • Problem: Woher kommt die Ground Truth?
      • Honeypots
        • Accounts, die nur Kauderwelsch tweeten
        • Bots wollen ihre Reichweite erhöhen und folgen zufälligerweise auch diesen Accounts
    • Als Attribute können sowohl Inhalt als auch Metadaten von Tweets verwendet werden
    • LSTMs als Methode, zeitabhängige Daten (auch Text) zu verarbeiten
  • Bei Botnets können Unsupervised ML Methoden verwendet werden um zu untersuchen, ob sich Accounts synchron verhalten
  • Botometer
    • Errechnet einen Bot-Score auf Profil-Ebene
    • Supervised ML Ansatz mit über 1000 Features
    • Subscores, damit man sieht, welche Faktoren wie viel Einfluss auf den Score hatten
    • Auf englischsprachige Profile ausgerichtet; es gibt aber auch einen sprachunabhängigen Score
Quellen und weitere interessante Links
  • https://www.bpb.de/252585/was-sind-social-bots (diese Seite ist zum Zeitpunkt des Verfassens der Shownotes offline gegangen. Diese Seite könnte noch online sein: https://www.bpb.de/themen/medien-journalismus/digitale-desinformation/290555/social-bots-zwischen-phaenomen-und-phantom/#:\~:text=Social Bots sind Computerprogramme%2C die,auch politische Inhalte zu verbreiten.&text=Die davon ausgehende Gefahr lässt,Mensch hinter den Social Bots.)
  • „Communication Snapshot“ der akademischen Gesellschaft zu „How powerful are social bots?“ https://www.akademische-gesellschaft.com/fileadmin/webcontent/Publikationen/CommunicationSnapshots/AGUKCommunicationSnapshotSocialBotsJune2018.pdf
  • Demystifying social bots: https://journals.sagepub.com/doi/pdf/10.1177/2056305120939264
  • Arming the public with AI to counter social bots: https://journals.sagepub.com/doi/pdf/10.1177/2056305120939264
  • Botometer: https://botometer.osome.iu.edu/
  • Botometer 101 (ein Low-Level Tutorial für Laien): https://arxiv.org/pdf/2201.01608.pdf
  • Wie viele Bots gibt es auf Twitter?
    • Dieses Paper von Varol et al., das auf einer hochrangingen Konferenz erschienen ist, schätzt auf 9-15%: https://arxiv.org/pdf/1703.03107.pdf
    • Vortrag „Mining Social Networks to Learn about Rumors, Hate Speech, Bias and Polarization by Barbara Poblete“ von Prof. Barbara Poblete: https://www.youtube.com/watch?v=N1igWnzZRQ8
      (Gesina konnte die Aussage zur Prozentzahl der Bots auf Twitter im Transkript nicht mehr finden – trotzdem sehr interessanter Vortrag.)
  • Journalistische Recherche, die Fake Stellengesuchen aufgedeckt hat: https://www.rbb24.de/studiocottbus/panorama/coronavirus/beitraege\_neu/2022/01/oberlausitz-anzeigen-annoncen-impfpflicht-ungeimpfte-stellenangebot.html
  • Mind Field Video von Vsauce zur Konformität: https://www.youtube.com/watch?v=fbyIYXEu-nQ
  • Mehr zu unterschwelligen Reizen (= subliminal messages, z.B. Kinofilm, in dem nicht bewusst wahrnehmbar kurz für einen Frame ein Bild einer Cola eingeblendet wird, um den Wunsch auf Cola zu wecken) und, dass sie nicht oder nicht besonders gut funktionieren: https://de.wikipedia.org/wiki/Unterschwelliger\_Reiz
  • Wer sich selber mal einen Bot (bitte keinen Social Bot ;-)) für Telegram schreiben möchte, kann mal hier reinschauen: https://core.telegram.org/bots
  • Der Messenger Element, den Gesina erwähnt hat: https://element.io (basiert auf dem Matrix Protokoll)
  • Mehr zum OSI Schichtmodell, das den Schichtaufbau von Datenpaketen im Internet beschreibt


fyyd: Podcast Search Engine
share








 October 6, 2022  1h23m