KI kann Fake-Kommentare zu Online-Artikeln schreiben

Microsoft-Forscher entwickeln mit "DeepCom" ein System, das mit Fake-Einträgen die Kommentarspalten bei Online-Medien füllen soll.
 
KI-Forscher von Microsoft haben ein maschinelles Lernmodell entwickelt, das Fake-Kommentare zu News und Artikeln bei Online-Medien erzeugen kann. Dies berichtet 'The Register'. Zum Projektteam gehören Wu Wei, Principal Applied Scientist Lead, und Can Xu von Microsoft China sowie zwei Forscher von der Universität Peking.
 
Unter dem Titel "Read, Attend and Comment: A Deep Architecture for Automatic News Comment Generation" stellen die vier Forscher eine Kreation namens "DeepCom" vor. "Die automatische Generierung von Nachrichtenkommentaren ist für Anwendungen von Vorteil, hat aber bis jetzt nicht genügend Aufmerksamkeit in der Forschungsgemeinschaft erregt", heisst es in dem Papier.
 
Das System besteht aus zwei neuronalen Netzwerken: eines zur Analyse des Inhalts eines Artikels. Dieses interpretiert Überschrift, Lead und Artikeltext und erkennt so, was die wichtigsten inhaltlichen Punkte sind. Das zweite neuronale Netzwerk verwendet diese Informationen, um den gefälschten Kommentar zu erzeugen. So soll das menschliche Lese- und Benutzerverhalten auf News-Sites simuliert werden.
 
Online-Nachrichtenkommentare würden es Internetnutzern ermöglichen, ihre Meinungen auszudrücken, ihre Einstellungen zu zeigen und unter den von ihnen gelesenen Nachrichtenartikeln miteinander zu kommunizieren, heisst es im Papier weiter. KI soll dieses Verhalten nun adaptieren und bei menschlichen Kommentarschreibern begleiten und verstärken.
 
KI-Einträge sollen die Leseerfahrung verbessern
Die Forscher erhoffen sich, dass Systeme wie DeepCom den Kommentarservice von News-Websites beleben und ihm zusätzliches Gewicht verleihen können. "Die Systeme sollen die Leseerfahrung für weniger kommentierte Nachrichtenartikel verbessern und Fertigkeitslisten anderer Anwendungen der künstlichen Intelligenz, wie beispielsweise von Chatbots, bereichern."
 
Medien haben regelmässig mit Spam, Trolls und Regelverstössen in ihren Kommentarfunktionen zu kämpfen. So schaffte die 'Süddeutsche Zeitung' Ende 2014 die Kommentarfunktion unter Online-Artikeln ab. Die 'Deutsche Welle' vollzog denselben Schritt im August 2018. Chefredaktorin Ines Pohl schrieb zum Entscheid: "In letzter Zeit haben die überwiegenden Beiträge allerdings ein solches Niveau erreicht, dass sie mit einem konstruktiven Meinungsaustausch nichts mehr zu tun haben." Andere Medien verstärkten die Moderation oder erhöhten die Zugangsanforderungen zu den Kommentarfunktionen.
 
Missbräuche werden mit keinem Wort erwähnt
'The Register' kritisiert denn auch, dass im DeepCom-Papier ein möglicher Missbrauch der Technologie mit keinem Wort erwähnt werde: "Zum Beispiel könnten repressive Regime ein solches Modell implementieren, um Propaganda zu betreiben. Die Kommentare könnten auch erbitterte Streits zwischen Bots und Menschen anstossen, um Zwietracht und Fehlinformationen zu säen."
 
Bis jetzt trainierten die Forscher ihr KI-Modell mit einem chinesischen Sprachdatensatz, der Millionen von echten menschlichen Kommentaren zu Online-Artikeln enthielt, und einem englischsprachigen Datensatz, der aus 'Yahoo! News' stammt.
 
Dort kommentiert DeepCom eine Basketball-Meldung mit "the rockets are going to have a lot of fun in this series" – "Die Rockets (Team aus Houston) werden in dieser Spielzeit grossen Spass haben." Solche Kommentare würden zeigen, so 'The Register', dass das Modell bis jetzt noch zu wenig ausgereift sei, um komplexe Inhalte wiederzugeben und grossen Schaden anzurichten, auch wenn die Idee dahinter beunruhigend sei.
 
Die Forscher und Microsoft gaben bis jetzt keine weiteren Kommentare zur Entwicklung von DeepCom ab. Das Forschungspapier dazu ist online als PDF abrufbar. (Philipp Anz)