Sorge um KI wächst im Superwahljahr
In der Politik können die Wähler durch Deep-Fakes beeinflusst werden, die mit künstlicher Intelligenz erstellt werden.
Corina Cristea, 17.03.2024, 08:36
Wir definieren Künstliche Intelligenz als „Fähigkeit eines Systems, externe Daten richtig zu interpretieren, aus diesen Daten zu lernen und das Gelernte zu nutzen, um bestimmte Ziele und Aufgaben durch flexible Anpassung zu erreichen”. Die KI umfasst die Entwicklung von Algorithmen und Modellen, die es Maschinen ermöglichen, ihre Umgebung wahrzunehmen und darauf gestützt geeignete Maßnahmen zu ergreifen.
Diese Algorithmen nutzen große Datenmengen und fortschrittliche Technologien wie maschinelles Lernen, Deep Learning oder natürliche Sprachverarbeitung.
Die schon 1956 als akademische Disziplin gegründete künstliche Intelligenz setzt sich zunehmend durch, und ihre Vorteile sind unbestreitbar. Diese reichen von einer besseren Gesundheitsversorgung bis hin zu effizienteren Fertigungsprozessen, von einem sichereren und saubereren Verkehr bis hin zu billigeren und nachhaltigeren Energiequellen. In Unternehmen kann die KI zum Beispiel die Entwicklung einer neuen Generation von Produkten und Dienstleistungen erleichtern und die Sicherheit am Arbeitsplatz verbessern, da Roboter gefährliche Aufgaben übernehmen können. Künstliche Intelligenz hat jedoch auch ihre Schattenseiten, wie z. B. mögliche Bedrohungen für Sicherheit, Demokratie, Unternehmen und Arbeitsplätze.
Die Frage ist, ob wir an einem Punkt angelangt sind, an dem wir befürchten, dass künstliche Intelligenz und die Werkzeuge, mit denen sie unsere Realität verändert, über unsere Zukunft entscheiden werden. Für einige Insider ist dies nicht ausgeschlossen. Ein Beispiel ist der Bereich der Politik, wo es Möglichkeiten der Beeinflussung der Wählerschaft gibt, zum Beispiel durch Deep-Fakes, die mit künstlicher Intelligenz erstellt werden.
Professor Flavia Durach, Spezialistin für Desinformationsstudien, erklärt den Mechanismus: „Deep-Fakes sind risikant. Die emotionale Komponente der Stimmung von Wähleren wird verschärft, und das kann einem bestimmten Kandidaten oder einer Partei zugute kommen. Die emotionale Manipulation spielt eine wichtige Rolle bei der Fehlinformation und kann zu irrationalen Entscheidungen, zur Untergrabung des kritischen Denkens und dazu führen, dass man eine bestimmte Art von Botschaft für bare Münze nimmt, die eine starke emotionale Komponente hat, z. B. Angst oder Empörung. Bei Wahlen kann es zu Situationen kommen, wo ein Kandidat oder ein Wahlkampfteam oder bestimmte interessierte Akteure Fälschungen erstellen, um Gegner zu diskreditieren und Zweifel bei den Wählern zu wecken. Vor allem unentschlossene Wähler könnten in die eine oder andere Richtung gesteuert werden. Deep-Fakes weisen in der Regel alle Merkmale von Audio- und Videoinhalten mit starker Viralität auf, so dass sie sich leicht verbreiten können.“
Um entgegenzuwirken, hat eine Gruppe von 20 Technologieunternehmen, darunter große Softwareentwickler für künstliche Intelligenz, kürzlich eine Vereinbarung unterzeichnet, die sie verpflichtet, in diesem Jahr gegen Wahlfälschungen vorzugehen. Zu den wichtigsten Unterzeichnern gehören OpenAI, Microsoft und Meta. Die Vereinbarung, die auf der Münchner Sicherheitskonferenz abgeschlossen wurde, umfasst neben KI-Unternehmen auch einige der beliebtesten sozialen Netzwerke: Meta, TikTok und X (ehemals Twitter) müssen sicherstellen, dass alle schädlichen oder gefälschten Inhalte von ihren Plattformen entfernt werden. OpenAI, Microsoft und die übrigen KI-Unternehmen müssen hingegen sicherstellen, dass sie von KI erzeugte Bilder, Videos und Audiodateien identifizieren und die Nutzer ordnungsgemäß darüber informieren.
Die meisten Unternehmen haben sich darauf geeinigt, KI-Inhalte zu kennzeichnen, vor allem mit einem Wasserzeichen. Dies ist ein guter Anfang, meint Flavia Durach: “Während der COVID-19-Pandemie haben wir auch Erfahrungen mit weniger ausgefeilten Fake News gemacht. Es wurde vieles versprochen und Maßnahmen zur Kennzeichnung von Inhalten ergriffen, aber unabhängige Studien von Denkfabriken oder Forschern haben viele Einschränkungen dieser Maßnahmen festgestellt. Viele der Inhalte, die in diesen Kontexten abgesetzt wurden, waren zwar Fake News, blieben aber unentdeckt von Moderatoren und Erkennungsmaßnahmen. Ohne technisch versiert zu sein bin ich angesichts der bisherigen Erfahrungen also eher skeptisch, was die Wirksamkeit und Effizienz solcher Maßnahmen angeht.“
In Ermangelung gesetzlicher Regelungen auf nationaler und supranationaler Ebene werden wir wenig erreichen, wenn wir unsere Bemühungen nicht auf eine Politik zur Entwicklung künstlicher Intelligenz auf der Grundlage ethischer Grundsätze und zur Minimierung der Risiken stützen, sagt die Expertin für Desinformationsstudien. Auf EU-Ebene wurden bereits einige wichtige Schritte in diese Richtung unternommen – das neue Gesetz über künstliche Intelligenz, das diese Woche im Plenum des Europäischen Parlaments verabschiedet wurde, sieht vor, dass Entwickler angeben müssen, dass die von der KI erzeugten Töne, Bilder und Texte künstlich sind. Es wird jedoch noch einige Zeit dauern, weil das Gesetz erst 24 Monate nach seinem Inkrafttreten in vollem Umfang anwendbar sein wird. Und ohnehin ist dabei nur ein schrittweises Vorgehen vorgesehen.