KI entlarvt Pseudonyme in Webforen: Eine Analyse der Studie von ETH Zürich und Anthropic

KI-News

Forenbeiträge: KI enttarnt pseudonyme Online-Profile in Minuten

Lesezeit: ca. 9 Minuten

Key Takeaways

  • ETH Zürich und Anthropic zeigen: KI kann Webseiten-Nutzer durch Forenbeiträge und Kommentare deanonymisieren.
  • Große Sprachmodelle analysieren unstrukturierte Texte auf Hinweise zu Ort, Hobbys oder Beruf – auch subtile Details reichen oft aus.
  • Der automatisierte Profilabgleich mit öffentlichen Datensätzen und APIs kostet nur wenige Dollar pro Zielperson und läuft innerhalb von Minuten ab.
  • Selbst einfache Pseudonyme bieten spätestens jetzt keinen Schutz mehr vor moderner Textanalyse.
  • Besonders Whistleblower und Aktivisten sind gefährdet; die Forschung warnt vor der neuen Sicherheitssituation.

Studie zeigt, wie KI Anonymität im Netz aushebelt

Forschende der ETH Zürich und des KI-Unternehmens Anthropic haben in einer aktuellen Arbeit demonstriert, dass KI-basierte Systeme inzwischen in der Lage sind, die tatsächliche Identität von Internetnutzern ohne deren Wissen innerhalb kürzester Zeit aufzudecken. Die Grundlage dafür ist die Nutzung großer Sprachmodelle, sogenannter Large Language Models (LLMs), die mit völlig gewöhnlichen Online-Kommentaren und Forenbeiträgen gefüttert werden. Die Arbeit mit dem Titel Large-scale online deanonymization with LLMs legt offen, wie weit die technischen Fähigkeiten in Sachen Profiling mittlerweile sind.

So funktioniert die Deanonymisierung durch KI

Kern der Methode ist das Reasoning-Verfahren moderner Sprachmodelle: Über Dutzende oder hunderte Beiträge in Foren, Kommentarspalten und ähnlichen, frei zugänglichen Internetbereichen hinweg extrahiert das System aus scheinbar unwichtigen oder beiläufig geteilten Informationen kleine Mosaikstücke.

Direkte Hinweise – wie etwa ein ausgeschriebenes Alter oder ein bestimmtes Geschlecht – sind dabei eher Ausnahme als Regel. Die Stärke des KI-gestützten Approach liegt vielmehr im Aufdecken und Zusammenführen subtiler Hinweise: Erwähnt ein Nutzer in einem Beitrag einen regionalen Feiertag, spricht über das Wetter, beschreibt einen Routinetermin beim lokalen Fußballverein oder schildert einen arbeitsbezogenen Zwischenfall, so werden diese Details als Indizien gesammelt und miteinander logisch verknüpft.

„Die KI extrahiert diese unstrukturierten Datenpunkte aus hunderten Kommentaren und formt daraus ein hochpräzises Profil der Zielperson.“

Der Vorgang, für den früher aufwändige manuelle Detektivarbeit durch menschliche Analysten notwendig war, wird nun durch LLMs vollautomatisiert übernommen – und das im Verborgenen, ohne dass betroffene Nutzer einen tatsächlichen Hinweis erhalten.

Technische Grundlage: Reasoning, interne & externe Profilabgleiche

Das Herzstück des Verfahrens besteht darin, den Pool unstrukturierter Textdaten algorithmisch auszuwerten. Sprachliche Eigenheiten, der Gebrauch bestimmter Begriffe, Berichte über Nischen-Hobbies, regionale Besonderheiten oder berufliche Anekdoten dienen als Indikatoren. Durch logisches Reasoning gelangt das Sprachmodell an immer spezifischere Annahmen.

Im nächsten Schritt wird das so erstellte, immer konkretere Nutzerprofil mit externen Datenquellen abgeglichen. Hierzu werden öffentliche APIs und Schnittstellen zu Suchmaschinen eingebunden, mit deren Hilfe die KI die gesammelten Merkmale beispielsweise mit Vereinsregistern, Lokalnachrichten oder beruflichen Netzwerken abgleicht. Häufig reduziert sich dadurch die Kandidatenliste nach wenigen Abfragen auf eine oder einen Einzelnen.

Die KI agiert dabei komplett automatisch: Profile werden geparst, Attribute angereichert, Abfragen zu externen Datenquellen generiert und Rückmeldungen logisch evaluiert – und all das in einem Bruchteil der Zeit und mit minimalen Kosten.

Effizienz und Skalierbarkeit: Vollautomatisierte Identifikationsprozesse

Ein wesentliches Ergebnis der Studie ist die praktische Effizienz dieses neuen Ansatzes: Die Identifizierung eines vermuteten Profils dauert üblicherweise nur wenige Minuten, sofern ein ausreichend großer Pool an Beiträgen vorliegt. Die entstehenden Kosten pro Fall liegen – abhängig vom Aufwand und Umfang der API-Abfragen – im Bereich von wenigen Dollar.

Selbst niedrige technische Einstiegshürden genügen für diese Verfahren: Die Forscher betonen, dass keine tiefgehenden Programmierkenntnisse oder Spezialtools notwendig sind. Die Methode setzt lediglich auf leicht erhältliche Cloud-KI-Dienste und Web-APIs, wie sie jeder registrierte Nutzer mit entsprechendem Zugang nutzen könnte.

Dieses Skalierungspotenzial sorgt dafür, dass die Schwelle für gezielte wie breit angelegte Identitätsrecherchen drastisch gesunken ist – mit entsprechenden Implikationen für Privatsphäre und Sicherheit.

Die Grenzen pseudonymer Nutzung im Licht moderner KI-Analyse

Lange Zeit wurde angenommen, dass die Verwendung einfacher Pseudonyme im Netz einen basalen Schutz vor allzu einfacher Identifikation bietet. Die vorgelegte Arbeit zeigt: Mit den aktuellen Möglichkeiten sind solche Methoden praktisch wirkungslos, sobald ausreichend Textmaterial öffentlich zugänglich ist. Die Analysekapazität moderner AI ist dabei so feingranular, dass selbst Nutzer mit gewohnter Sprachdisziplin und vorsichtigem Auftreten mitunter enttarnt werden.

Insbesondere Menschen, die auf Anonymität angewiesen sind – etwa Whistleblower, Aktivisten oder Minderheitenschutzgruppen – sehen sich neuen Risiken gegenüber. Die Studie betont, dass vergangene (und scheinbar harmlose) Textbeiträge ausreichen können, um persönliche Identitäten aufzuspüren.

Für Internetnutzer und Plattformbetreiber, aber auch für den Gesetzgeber, eröffnet dies eine neue Phase digitaler Verwundbarkeit. Klassische Gegenmaßnahmen (IP-Masking, Wegwerf-Accounts, Verzicht auf Identifizierer im Profil) bieten keinen ausreichenden Schutz mehr gegen die Fähigkeiten fortgeschrittener Textanalyse.

Blick in die Praxis: Wo und wie kommt die Technik zum Einsatz?

Die Technologie kann – zumindest grundsätzlich – überall dort eingesetzt werden, wo Nutzer in größerer Zahl wiederholt posten: Diskussionsforen, Online-Communities, soziale Netzwerke, aber auch Kommentarbereiche großer Nachrichtenplattformen gelten als potenzielle Ziele. Die Deanonymisierung funktioniert unabhängig von der Plattform, sofern öffentlich einsehbare Inhalte in ausreichendem Umfang vorliegen.

Wichtig: Es handelt sich nicht um einen abstrakten Forschungserfolg. Die eingesetzten Modelle, Schnittstellen und Praxisszenarien sind bereits mit heute verfügbaren Mitteln basisnah umsetzbar.

Die vollständigen Ergebnisse sind frei einsehbar: arXiv Abstract, PDF, MATS Research.

Was tun gegen neue Gefahren für Anonymität und Privatsphäre?

Für Sicherheitsforscher und Anbieter von Online-Plattformen entsteht daraus akuter Handlungsbedarf: Gefordert sind neuartige Schutzmechanismen, um personenbezogene Spuren in öffentlichen Textbeiträgen entweder vor KI-Analysen zu verschleiern oder rechtzeitig zu löschen. Auch der Gesetzgeber ist aufgerufen, angesichts der beschriebenen technischen Entwicklungen die Rahmenbedingungen für digitale Anonymität zu überdenken.

Die Studie stellt klar: Der „klassische Schutz“ durch simple Pseudonyme ist obsolet. Zukünftige Systeme für maschinellen Datenschutz und digitale Spurenreduktion werden damit zum Kernthema technologischer und gesellschaftlicher Debatten rund um AI, Meinungsfreiheit und digitale Selbstbestimmung.

Fazit: Konsequenzen für Anonymität im Internet

Die neue Profiling-Studie von ETH Zürich und Anthropic demonstriert die realen Risiken, die moderne Sprachmodelle für jahrelang etablierte Schutzkonzepte im Netz bedeuten. KI-gestützte Systeme erkennen und verknüpfen Details aus digitalen Spuren weitaus gründlicher, als bisher angenommen. Künftig braucht es daher dringend neue Tools, Ansätze und Schutzkonzepte, um digitale Identitäten effektiv zu wahren.

Offene Fragen zu Datenschutz und die Suche nach tragfähigen Gegenmaßnahmen werden nach dieser Veröffentlichung breiter in der Gesellschaft diskutiert werden müssen. Für betroffene Nutzergruppen ist das Bewusstsein für die neuen technischen Möglichkeiten ab sofort unerlässlich.

Was bedeutet die neue Bedrohungslage für die eigenen Online-Gewohnheiten? Wer in sensiblen Kontexten diskutiert oder veröffentlicht, sollte das eigene Verhalten kritisch reflektieren – und künftige Entwicklungen der Schutztechnologien im Auge behalten.

Bildquelle: https://www.all-ai.de/news/beitrage2026/ki-forum-nutzer

What do you feel about this post?

0%
like

Like

0%
love

Love

0%
happy

Happy

0%
haha

Haha

0%
sad

Sad

0%
angry

Angry

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert