’Wir brauchen mindestens europäische Lösungen’

Jurist Paul Dürr über Auswirkungen und Regulierungsmöglichkeiten von Social Bots

Anwendungen mit künstlicher Intelligenz (KI) sind zunehmend Teil unseres Alltags. Manchmal nutzen wir sie bewusst, in anderen Fällen bleibt die Interaktion mit solchen Systemen unbemerkt. Das betrifft beispielsweise automatisierte Profile in sozialen Netzwerken, sogenannte Social Bots. Der Jurist Dr. Paul Dürr schrieb seine Dissertation zu verfassungsrechtlichen Fragen rund um dieses Phänomen. Im Interview mit Linus Peikenkamp beschreibt er die Auswirkungen von Social Bots und die Schwierigkeiten, sie zu regulieren.

Bevor wir ins Detail gehen: Wie definieren Sie Social Bots?

Social Bots sind automatisierte Profile, die am Kommunikationsprozess in sozialen Netzwerken teilnehmen und dabei eine menschliche Identität vortäuschen. Sie bündeln viele Phänomene des digitalen Zeitalters: Automatisierung, digitalisierte Kommunikation und Anonymität. Häufig werden sie eingesetzt, um öffentliche Meinungsbildungsprozesse zu beeinflussen und den politischen Wettbewerb zu verzerren.

Inwiefern?

Beispielsweise wurden während des Präsidentschaftswahlkampfs in den USA 2016 Tausende Bots eingesetzt, um Aussagen der Kandidaten in den sozialen Netzwerken zu verbreiten oder Hashtags wie #TrumpWon vielfach zu posten. Auf diese Weise dominieren bestimmte Themen die öffentliche Diskussion, obwohl sie zuvor keine Rolle gespielt haben. Auch während des Brexit-Referendums im selben Jahr wurden Pro-Brexit-Aussagen automatisch verbreitet. Ein grundsätzliches Problem ist, dass Social Bots vorgeben, Menschen zu sein. Dadurch nehmen wir die Profile anders wahr, als wenn wir um deren Pseudomenschlichkeit wüssten, und Diskurse verlieren an Authentizität und Vitalität. Wir haben einen Anspruch darauf zu wissen, ob wir mit einer Person oder einer KI diskutieren.

Wäre dieses Problem durch eine Klarnamenpflicht gelöst?

Die halte ich für bedenklich. Zwar wäre die Anonymität der Nutzer damit aufgehoben und Straftaten wären einfacher zu verfolgen. Jedoch wird diese Pflicht selten konsequent durchgesetzt, wie man am Beispiel von Facebook sieht. Zudem würde eine Klarnamenpflicht die Meinungsfreiheit deutlich einschränken, da unsere Verfassung nicht verlangt, dass ein Kommunikator unter seinem richtigen Namen auftritt. Vielmehr schützt sie das Recht, anonym oder pseudonym zu kommunizieren.

Aber die Verfassung verlangt einen ungehinderten Meinungsbildungsprozess.

Richtig. Allerdings ist verfassungsrechtlich bislang nicht klar formuliert, ab wann dieser Prozess durch Social Bots beeinträchtigt ist. Ich sehe Manipulationen durch den Einsatz pseudomenschlicher Kommunikationsteilnehmer im Widerspruch zum demokratischen Meinungskampf und dem Prinzip kommunikativer Chancengleichheit.

Welche regulatorischen Schritte sind denn aus Ihrer Sicht notwendig?

Zunächst sollten die Plattformen in die Pflicht genommen werden, den Einfluss von Social Bots zu reduzieren, indem sie beispielsweise Tools zur Erkennung dieser Instrumente entwickeln. Schließlich liegt es auch im Interesse der Anbieter, Falschinformationen und Hassreden zu vermeiden. Ansonsten bietet der Medienstaatsvertrag einen guten Ansatz: Er verpflichtet zur Kennzeichnung automatisierter Profile. Das Gesetz gilt jedoch nur für deutsche Nutzerinnen und Nutzer.

Dann bringen uns nationale Lösungen nicht wirklich weiter...

Deswegen brauchen wir mindestens europäische Lösungen, etwa das unter der Abkürzung ,AI-Act’ bekannte EU-Gesetz zur künstlichen Intelligenz, das Anfang August in Kraft getreten ist. Dort ist ebenfalls festgelegt, dass Anbieter von Plattformen automatisierte Systeme entsprechend kennzeichnen. Auch der Digital Services Act der Europäischen Union gibt ähnliche Maßnahmen der Plattformregulierung vor. Auf globaler Ebene gibt es diese Regelungen noch nicht - das sehe ich als große Herausforderung für die Zukunft an.

Dieser Artikel stammt aus der Unizeitung wissen