Süddeutsche Zeitung

Unsere Kernprodukte

Im Fokus

Partnerangebote

Möchten Sie in unseren Produkten und Services Anzeigen inserieren oder verwalten?

Anzeige inserieren

Möchten Sie unsere Texte nach­drucken, ver­vielfältigen oder öffent­lich zugänglich machen?

Nutzungsrechte erwerben
Meldung

KI erleichtert Russlands Spiel

Diese Meldung stammt aus dem folgenden Briefing des Dossiers Schattenspieler:

Viel wurde gewarnt vor dem vermeintlich desaströsen Schaden, den KI-Tools wie ChatGPT anrichten könnten, wenn sie in die falschen Hände gerieten – gerade vor der Europawahl. Zuweilen kommt da eine Untergangsstimmung auf, die gar nicht durch Evidenz gedeckt ist.

Problem erkannt: Gestern Abend meldete sich die ChatGPT-Mutter OpenAI erstmals selbst zu Wort, mit einem Bericht über den Missbrauch des Chatbots für staatliche Einflussoperationen, die das Unternehmen erkannt und unterbunden haben will. OpenAI zufolge haben verschiedene prorussische und prochinesische Akteure, aber auch ein israelisches Netzwerk in den vergangenen Monate ChatGPT eingesetzt, um Desinformation maschinell zu produzieren und digitale Debatten zu manipulieren – insbesondere auf der Plattform X.

Virtuelle Selbstgespräche: Die staatlichen Akteure hätten mit Hilfe der KI nicht nur unzählige, kurze Social-Media-Kommentare produziert – die dem Anschein nach von echten Menschen abgesetzt wurden – sondern gleich auch die Antworten dazu. So seien ganze Konversationen künstlich erzeugt worden, etwa um Stimmung gegen Muslime zu machen.

Das Fazit von OpenAI, nicht ganz überraschend: Die Desinformationskampagnen, die sich ChatGPTs bedient hätten, seien kaum wirkungsvoll gewesen, weil sie nur eine geringe Reichweite entwickelt hätten und OpenAI seine Tools gut gegen Missbrauch gewappnet habe.

Experten hätten da doch noch ein paar Fragen: Rolf Fredheim leitet das Analyse-Unternehmen Markolo Research, hat lange die NATO wissenschaftlich beraten. Er begrüßt, dass OpenAI mit seinem Bericht Erkenntnisse darüber liefert, wie Akteure im Umfeld des Kremls Tools wie ChatGPT im Informationskrieg einsetzen. „Allerdings versucht OpenAI ziemlich angestrengt, das Ausmaß und die Wirkung dieser Manipulationsversuch kleinzureden“, sagt Fredheim. Die Daten, die der Bericht liefere, seien aber zu begrenzt, um diesen Schluss zuzulassen. Wichtig zu wissen wäre etwa, wie viele Menschen tatsächlich mit den manipulativen Inhalten in Berührung gekommen sind und ob die Bedrohungsakteure ihre Aktivitäten insgesamt ausgeweitet hätten.

KI erleichtert Russlands Spiel (Meldung) | SZ Dossier