Zusammenfassung zeigen Zusammenfassung verbergen
Aktuelle Recherchen legen nahe, dass auf TikTok und anderen Plattformen zahllose offenbar reale Influencerinnen von Computeralgorithmen erzeugt wurden – und gleichzeitig politische Botschaften verbreiten. Das ist relevant, weil solche künstlichen Accounts die Wahrnehmung in sozialen Netzwerken verzerren und politische Debatten beeinflussen können.
Wie ein ganzes Netzwerk aus Followern entsteht
Untersuchungen, unter anderem von Correctiv, identifizierten nahezu 200 Profile, die sich auf etwa zwei Dutzend vermeintliche Personen zurückführen ließen. Auf den ersten Blick erscheinen die Accounts wie typische Lifestyle-Influencerinnen: kurze Clips, Alltagsbilder, private Anekdoten. Bei näherer Betrachtung fallen jedoch wiederkehrende Auffälligkeiten auf, die auf automatisierte Erzeugung oder umfangreiche Bildmanipulation hindeuten.
jbl launcht innovative PartyBoxen: AI Sound Boost und spektakuläre Lichtshow
Fake-Influencer auf TikTok manipulieren politische Debatten: Nutzer sind im Visier
Das Problem für Nutzerinnen und Nutzer: Viele erkennen die Manipulation nicht. Videos verwenden synthetische Stimmen oder bearbeitete Bildsequenzen, und Profile vernetzen sich gegenseitig, um Reichweite aufzubauen. In einigen Fällen flankieren die Accounts politische Inhalte mit sexualisierten Inhalten oder Verlinkungen zu Plattformen für kostenpflichtige Abonnements – ein Mix, der besonders viel Aufmerksamkeit zieht.
Welche Folgen das hat
Solche Accounts greifen auf drei Ebenen an die Authentizität von Social Media an: Sie verfälschen Reichweitenmetriken, verzerren die öffentliche Meinung und erschweren die Verantwortungssuche, weil kein klarer, realer Betreiber erkennbar ist. Für junge Nutzer und weniger medienkompetente Zielgruppen steigt das Risiko, manipuliert zu werden.
Längerfristig könnte das Vertrauen in Plattformen darunter leiden und politischen Akteuren neue Möglichkeiten zur gezielten Verbreitung von Botschaften eröffnen — ganz ohne transparente Sponsoring- oder Parteizugehörigkeit.
Erkennungszeichen: Was bei Profilen auffallen sollte
- Fehlerhafte Details: Hände, Zähne, Ohren oder Haaransätze sehen verzerrt oder unnatürlich aus.
- Gleiche Kulissen: Mehrere Accounts verwenden identisch eingerichtete Räume, Möbel oder Hintergründe.
- Dünne Biografien: Es fehlen persönliche Angaben, Ortsangaben oder glaubwürdige Lebensdetails.
- Mechanische Interaktion: Kommentare wirken repetitiv, generisch oder stammen von wenig aktiven Accounts.
- Synthetische Stimmen: Audio wirkt monoton, Roboter-haft oder passt nicht exakt zu Lippenbewegungen.
Was Plattformen und Beobachter bisher tun — und was fehlt
Plattformbetreiber arbeiten an Erkennungswerkzeugen für manipulierte Medien und an Meldemechanismen für verdächtige Accounts. Dennoch bleibt die Identifikation künstlicher Identitäten technisch anspruchsvoll: Generative KI verbessert sich schnell, und die Ersteller solcher Netzwerke reagieren mit subtileren Methoden.
Auch politische Aufsichtsbehörden stehen vor Herausforderungen. Rechtliche Regelungen greifen oft nur gegen reale Betreiber; bei anonymen oder verschleierten Strukturen ist Durchsetzung schwierig. Gleichzeitig wächst die Debatte über Kennzeichnungspflichten für synthetische Medien und die Verantwortung von Plattformen, politische Werbung und organische Verbreitung sauber zu trennen.
Kurzfristige Konsequenzen für Nutzer
Wer in sozialen Netzwerken unterwegs ist, sollte sensibler auf die Herkunft politischer Botschaften achten: Nicht jede populäre Stimme steht für eine reale Person oder ein ehrliches Meinungsbild. Das betrifft die Bandbreite von Wahlkampfkommunikation bis zu alltäglichen Debatten – und ist deshalb unmittelbar relevant für jede und jeden, der Informationen bewertet oder teilt.
Die Entdeckung großer KI-gestützter Accountnetze zeigt, wie schnell sich Technik und politische Kommunikation gegenseitig beeinflussen. Für Demokratien und Plattformökosysteme bleibt die Frage offen, wie Transparenz, Rechenschaft und Medienkompetenz zeitnah gestärkt werden können.












