Immer mehr Social Bots (computergesteuerte Akteure) bei Facebook und Twitter: Informatikprofessor Dr. Marc Erich Latoschik erklärt, warum er das für brandgefährlich hält.

Wenn der Facebook-Freund nicht echt ist
Immer mehr Social Bots bei Facebook und Twitter. Foto: Annabell Griebl

In den sozialen Netzwerken, allen voran in Facebook und Twitter, werden immer mehr Social Bots (Meinungsroboter) für politische Propaganda eingesetzt. Es handelt sich dabei um Profile, hinter denen keine echten Personen, sondern kleine Programme stecken. Menschen sprechen mit Maschinen, ohne es zu merken: Zu diesem Ergebnis kamen Experten sowohl nach dem Brexit, als auch nach der Wahl in den USA.

 

Laut einer Studie der Oxford Universität wurde allein nach der ersten TV-Debatte zwischen Hillary Clinton und Donald Trump mehr als jeder dritte Tweet (37,2 Prozent), der für Trump Partei ergriff, von einem Meinungsroboter abgesetzt. Bei Clinton lag der Bot-Anteil bei 22,3 Prozent. Welchen Einfluss haben Bots auf das politische Klima in einem Land? Bestimmen künftig Maschinen über die Machtverhältnisse in der realen Welt? Wir sprachen darüber mit Marc Erich Latoschik, Professor für „Mensch-Computer-Interaktion“ an der Universität Würzburg.

Frage: Was kann sich ein Laie unter einem Bot vorstellen?
Marc Erich Latoschik: Es handelt sich teils um recht simple Programme, die bis zu einem bestimmten Grad in der Lage sind, Texte zu analysieren. Sie verstehen gewisse Teile eines Textes, so genannte Schlüsselwörter. Nach einfachen Regeln generieren sie Antworten, die ebenfalls aus Schlüsselwörtern zusammengesetzt sind. Diese Programme sind seit dem letzten Jahrhundert bekannt.

Können Sie ein Beispiel nennen?
Latoschik: Als Meilenstein gilt das Computerprogramm ELIZA, mit dem der Informatiker Joseph Weizenbaum 1966 zeigen wollte, wie Computer natürliche Sprache verarbeiten. Weizenbaum war ein Gesellschaftskritiker. Umso überraschter war er, als viele Menschen sein Programm ernst nahmen und einem Computer, der mit simplen Fragen einen Psychologen mimte, ihre intimsten Details preisgaben. EILZA gilt als Prototyp moderner Chatbots.

Was zum Beispiel sagt ein Chatbot?
Latoschik: Chatbots funktionieren nach einfachen Regeln. Ein Beispiel: Der Computer fragt: „Wie geht es Ihnen?“ Der Mensch antwortet: „Mir geht es gut.“ Daraufhin der Computer: „Oh, das freut mich.“ Für den Fall, dass der Mensch antwortet: „Mir geht es leider schlecht.“, reagiert der Computer mit: „Oh, warum denn?“ So kann ein simples Programm Empathie vortäuschen.

Gilt Siri, die Spracherkennungssoftware von Apple, auch als Chatbot?
Latoschik: Seit Weizenbaums Erfindung versuchen Programme immer wieder, Menschen vorzugaukeln, sie seien reale Personen. Die Grenzen zwischen einfachen Systemen wie ELIZA und modernen wie Siri ist fließend. Komplexe Sprachanalyse-Systeme von Android oder Microsoft versuchen – im Gegensatz zu den einfachen Chatbots – tatsächlich zu verstehen, was der Nutzer sagt.

Haben Sie selbst schon einen Chatbot entwickelt?
Latoschik: An der Universität Bielefeld haben wir einen Avatar-Agenten namens Max gebaut. Der virtuelle Agent hatte neben einem tiefen Verständnis von Inhalten auch eine eher dumme Chatkomponente für Smalltalk. Er konnte zum Beispiel übers Wetter reden. Es waren Höflichkeitsfloskeln, ein Gespräch, dessen Inhalt austauschbar ist. Max steht heute im Heinz-Nixdorf Computermuseum. Manche Besucher haben ihm ihr halbes Leben erzählt.

Wie funktionieren Bots im Wahlkampf?
Latoschik: Einfache Programme setzen sich aus simplen Textbausteinen zusammen, die mit Schlüsselwörtern wie „Clinton“ oder „Trump“ kombiniert werden. Zum Beispiel: „Ach hör mir doch auf mit...“ oder „Von der/von dem... habe ich aber die Nase voll.“ Wenn Sie als Mensch zu einer Online-Diskussion dazukommen, in der Hunderte, Tausende oder Zehntausende einen Kandidaten schlecht machen, dann reagieren Sie vermutlich nicht oder lassen sich sogar beeinflussen. Der Eindruck entsteht: Hier ist eine Gemeinschaft, die sich auf eine Meinung festgelegt hat.

Welche Wirkung hat die Masse gleichlautender Meinungen?
Latoschik: Oft hinterfragt man sich selbst und seine eigene Sichtweise. Das hat nichts mit Inhalten, sondern nur mit der schieren Masse zu tun. Es ist einfacher, Mitläufer zu sein, als gegen den Strom zu schwimmen.

Welche Ziele verfolgen diejenigen, die Meinungsroboter einsetzen, noch?
Latoschik: Auch Verunsicherung kann eine Strategie von Meinungsrobotern sein. Verunsicherung führt dazu, dass man sich bestimmter Fakten plötzlich nicht mehr sicher ist.

Woran erkenne ich, dass ich mit einer Maschine und nicht mit einem Menschen diskutiere?
Latoschik: Wenn Sie immer wieder stereotype Tweets in Kombination mit dem Namen eines Politikers finden, handelt es sich vermutlich um einen Bot. Je schlechter der Meinungsroboter ist, desto leichter ist er zu identifizieren. Immer wiederkehrende Formulierungen, Standardantworten, die in der Satzstruktur kaum variieren, sind typisch. Bots erkennt man nicht daran, was gesagt wird, sondern wie etwas gesagt wird. Ein Beispiel: Schreiben Sie statt „Mir geht es schlecht“ den Satz „Mir geht es nicht gut“. Wenn Sie als Antwort „Das freut mich aber!“ erhalten, sprechen Sie mit einem sehr primitiven Bot, der die Verneinung nicht verstanden hat.

Gefährden Meinungsroboter unsere Demokratie?
Latoschik: Ja, Meinungsroboter konstruieren ein falsches Meinungsbild und manipulieren (zumindest indirekt) unsere Sicht auf die Welt. Sie wirken auf unsere Wahrnehmung – ähnlich wie die Medien, die ihren Lesern eine bestimmte Auswahl an Fakten präsentieren. Wenn beispielsweise in Italien fast alle Medienhäuser unter dem Einfluss Berlusconis stehen, ist das ein ähnliches Problem.

Doch mit dem Unterschied, dass es nicht so einfach ist, Medienhäuser zu manipulieren...
Latoschik: In der Tat. Um ein Berlusconi zu werden, müssen Sie erst einmal alle Medienhäuser aufkaufen. Einen Bot kann sich ein Programmierer in wenigen Stunden zusammenflicken. Theoretisch reicht ein einziger Programmierer, der gleichzeitig 10.000 Bots über ein Programm startet. Dank der Automatisierung kann von einer kleinen Gruppe ein großer unkontrollierbarer Schaden ausgehen.

Um eine Meinungsäußerung auf Facebook oder Twitter zu äußern, muss ich zuerst ein persönliches Profil anlegen – wie machen das Bots?
Latoschik: Um ein Profil anzulegen, müssen Sie sich mit einer E-Mail-Adresse identifizieren. Diese bekommt man heutzutage geschenkt. Sie sagt nichts über meine Identität. Sie könnten theoretisch mit einem eigenen Mail-Server falsche Profile zu mehreren Zehntausenden produzieren. Sie müssten nur ein Script (Programm) schreiben, das nichts anderes macht, als die Identifizierungsmail, die Facebook schickt, zu bestätigen. Dazu legen Sie vorher, über die ganze Welt verteilt, falsche E-Mail-Adressen an. Das kostet einen Programmierer einen Tag Arbeit. Wenn Sie überlegen, wieviel Geld im amerikanischen Wahlkampf ausgegeben wird, ist das nichts.

Woran sehe ich, dass mein Facebook-Freund oder Twitter-Follower, der für oder gegen Donald Trump schreibt, echt ist?
Latoschik: Das, was jeden Nutzer im Internet identifizierbar macht, ist die IP-Adresse (Adresse des Computers, der ans Internet angeschlossen ist). Mit ihrer Hilfe verfolgt die Polizei Straftäter im Netz. Wenn Zehntausende die gleiche IP-Adresse haben, dann sind es Bots, die von einem Rechner losgeschickt wurden. Doch die IP-Adresse eines Facebook- oder Twitter-Nutzers, mit dem Sie sich als Privatmann unterhalten, sehen Sie leider nicht.

Bundestagswahl 2017: CDU, SPD, Grüne und Linke haben erklärt, auf Social Bots zu verzichten. Die AfD will Meinungsroboter im Wahlkampf einsetzen. Was halten Sie davon?
Latoschik: Es besteht die große Gefahr, dass sich eine Minderheitsmeinung sehr schnell verbreiten kann.

Könnte man Meinungsroboter in Deutschland nicht einfach verbieten?
Latoschik: Sie können alles verbieten, aber das Verbot durchzusetzen, ist momentan unmöglich. Firmen wie Facebook oder Twitter operieren außerhalb unserer deutschen Legislative, wenn sie von außerhalb unserer Landesgrenzen operieren.

Wie könnte man den Einsatz von Meinungsrobotern verhindern?
Latoschik: In dem Moment, in dem eine Authentifizierung des Nutzers erfolgt, also eine eindeutige Ausweisbarkeit im Internet – vergleichbar mit dem Personalausweis in unserer realen Welt – haben Bots sehr viel geringere Chancen. Wenn der Betreiber einer Plattform beispielsweise nur Nutzer zulässt, die sich mit dem Verfahren XY identifiziert haben, ist das ein Schritt nach vorne. Doch theoretisch hätte auch der Betreiber selbst die Möglichkeit, sich über die eigenen Regeln hinwegzusetzen.

Werden Meinungsroboter eingesetzt, um Falschmeldungen im Netz zu verbreiten?
Latoschik: Natürlich. Stellen Sie sich vor, die Tagesschau meldet, Merkel habe Putin geohrfeigt. Dann entlarven Sie die Lüge nur, wenn andere die Nachricht negieren. Parteien, Firmen und Pressestellen schauen argwöhnisch auf alle Meldungen, die über Zeitung, Radio, Fernsehen und Nachrichtenagentur verbreitet werden. Daher ist die Wahrscheinlichkeit hoch, dass Falschmeldungen entdeckt werden. Im Internet dagegen macht sich niemand die Mühe, Aussagen auf ihren Wahrheitsgehalt zu prüfen. Sie können schließlich nicht alle Seiten aller sozialen Medien weltweit mitlesen. Dort werden Meinungen und keine Nachrichten verbreitet, oberflächlich und anonym.

Wie schütze ich mich vor Falschmeldungen?
Latoschik: Wer sein politisches Meinungsbild auf Twitter und Facebook-Einträgen aufbaut, der handelt hier sicher naiv. Wer glaubt, dass er dort mit Gleichgesinnten einen demokratischen Diskurs führt, der unterliegt einer trügerischen Informationsblase mit ungeprüfter Authentizität. Am vertrauenswürdigsten sind die demokratisch etablierten Medien. Sie haben oft eine Couleur, doch hinter ihren Nachrichten steht ein redaktioneller Prozess mit journalistischen Prinzipien. Im Internet wissen Sie oft nicht, mit wem Sie reden.


Zur Person

Professor Dr. Marc Erich Latoschik ist seit 2011 Inhaber des Lehrstuhls „Mensch-Computer-Interaktion“ an der Universität in Würzburg. Der Informatiker befasst sich mit intelligenten interaktiven Systemen. Dazu gehören 3D-Grafiken, Echtzeit-Simulation, virtuelle Realität, computergestützte erweiterte Realitätswahrnehmung und Künstliche Intelligenz.

Von primitiven Bots bis zur Künstlichen Intelligenz

Bei einem Social Bot handelt es sich um eine Software, die mit einem Profil auf Facebook oder Twitter verknüpft ist, auf dieses zugreifen kann und so als virtueller Teilnehmer auf dieser Plattform agiert. Social Bots gibt es schon lange. Auch die tagesschau nutzt sie, um neue Artikel bekannt zu machen.

Unter einem Meinungsroboter versteht man einen speziellen Social Bot, der mit anderen derart interagiert, dass er eine bestimmte Meinung zu einem Thema vertritt oder sogar manipuliert.

Chatbots sind Progamme, mit denen man mittels Text/Spracheingabe Smalltalk halten kann.

Alan Turing definierte 1950 den Begriff der Künstlichen Intelligenz über die Kommunikationsfähigkeit einer Maschine. Bei dem Test führt ein Mensch eine schriftliche Unterhaltung mit zwei ihm unbekannten Gesprächspartnern - ohne Sicht- und Hörkontakt. Der eine ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Gelingt es der Maschine über einen längeren Zeitraum, wird ihr Künstliche Intelligenz unterstellt.

Mit dem Loebner-Preis werden seit 1991 Informatiker ausgezeichnet, deren Programme den Turing-Test bestehen.

Du möchtest mehr von mainDing.de sehen? Dann folge uns fix auf Facebook, Snapchat oder Instagram!

Geht immer