Mindestens 150 Konten haben über einen Zeitraum von vier Tagen im Juli „Millionen“ von Posts auf X geteilt, in denen die Benutzer dazu ermutigten, Kinderbeutschaftsmaterialien zu kaufen, wie eine Untersuchung festgestellt hat.
Europäische Forscher haben das entdeckt, was sie für ein koordiniertes Netzwerk für den Verkauf und die Verteilung sexuell explizite Bilder von Kindern auf der Social -Media -Plattform X ist.
Die gemeinnützige Alliance4Europe hat mindestens 150 Konten festgestellt, die während eines Zeitraums von Vier-Tagen im Juli auf der Plattform auf der Plattform die Materials für sexuelle Übergriffe (sexuelle Übergriffe) auf der Plattform geteilt haben. Der Bericht schätzt, dass das koordinierte Netzwerk um den 17. Mai den Vorgang gestartet hat.
Die Forscher schätzen, dass das Netzwerk „Millionen“ von Posts teilte und dass der „Betrieb wurde weitgehend ungestört“ auf X, das vom Milliardär Elon Musk betrieben wird.
Der Bericht erfolgt, nachdem ein amerikanisches Gericht in der vergangenen Woche einen Teil einer Klage gegen X wiederbelebt hat, in der die fahrlässige Gesellschaft beschuldigt wurde, angeblich ein Video mit expliziten Bildern von Jungen in das US -Zentrum für vermisste und ausgenutzte Kinder (NCMEC) unverzüglich zu melden.
In der Europäischen Union wird die Debatte darüber hinaus weitergeht, wie die Überflut von Online -Inhalten von Kindemmissbrauch am besten umgeht und gleichzeitig die digitalen Datenschutzrechte der Menschen respektiert.
Verstärkte Beiträge führten zu Plattformen zum Kauf von Geschlechtsmissbrauch von Kindern.
Laut der Analyse hat das kriminelle Netzwerk spezifische Pornografie-bezogene Hashtags mit Inhalten von Kindesmissbrauch überflutet, die dann durch neue Konten verstärkt oder verbreitet wurden. Diese Konten würden den Inhalt kommentieren oder neu veröffentlicht, um das Engagement zu steigern.
Die Hashtags wurden als „Aggregatoren“ von sexuellen Missbrauch von Kindern verwendet und es leicht zu entdecken, andere überflutete Hashtags und neue CSAM -Konten zu entdecken “, ergab der Bericht.
Einige der Beiträge waren äußerst grafisch. Sie enthielten Videos, die Kinder darstellten, die „sexuell angegriffen, vergewaltigt oder… ansonsten ausdrücklich entlarvt wurden“, ergab der Bericht.
Viele der gemeinsam genutzten Beiträge enthielten Links zu Online -Telegramm- oder Discord -Chat -Räumen, Dating -Websites oder Websites, auf denen Ordner von Geschlechtsmissbrauchsinhalten von Kindern verkauft werden.
Eine der verstärkten Seiten, die mit einer aktiven Bitcoin -Brieftaschenadresse verbunden waren, die über 23 Transaktionen 660 US -Dollar (573 €) angehäuft hatte. In dem Bericht heißt es: „Potenziell bestätigen (en), dass der Betrieb Personen erreicht, die Zugang zum Inhalt kaufen“.
„Neue Konten werden kontinuierlich erstellt“
Als die Forscher zwei der ersten Beiträge des Netzwerks an X markierten, sagten sie, dass die Plattform schneller mit dem Entfernen von Inhalten Teilen entfernen begann.
X begann, Benutzer zu blockieren, von denen es glaubte, dass sie minderjährig waren, um auf den Inhalt zuzugreifen. Dies behinderte, stoppte die Aktivitäten des Betriebs jedoch nicht, fanden die Forscher fest.
„Neue Konten werden kontinuierlich erstellt, wodurch sogar eine Art Automatisierung vorgeschlagen wird und kontinuierlichen Zugriff auf CSAM -Inhalte ermöglicht“, heißt es in dem Bericht.
Die Forscher sagten, Xs „Whack-a-Mole“ -Ansatz zur Entfernung illegaler Inhalte erleichtern es diesen Beiträgen, sich zu verbreiten-und es schwieriger, Beweise zu sammeln.
„Wir haben keine Toleranz für sexuelle Ausbeutung von Kindern“
The European Circle kontaktierte X als nächstes, um eine Stellungnahme zu den Ergebnissen von Alliance4Europe zu fragen, und um die Klarheit darüber zu erhalten, ob das Unternehmen jüngste Änderungen im Zusammenhang mit CSAM -Inhalten auf seiner Plattform vorgenommen hat. Wir haben keine sofortige Antwort erhalten.
Im Juni sagte das Sicherheitsteam von X in einer Erklärung, dass es „keine Toleranz für sexuelle Ausbeutung von Kindern in irgendeiner Form“ habe.
Die Plattform sagte, sie habe neue CSAM -Hash -Matching -Anstrengungen auf den Markt gebracht, mit denen sein Team „Medieninhalte schnell und sicher übereinstimmen“, ohne die Privatsphäre des Benutzers zu beeinträchtigen.
Hashing ist eine Technik, die von einem Algorithmus zum Erstellen von Fingerabdrücken von Dateien auf einem Computersystem verwendet wird, und ein Hash mit einem anderen in einer Datenbank gespeicherten Hash wird als Hash -Matching bezeichnet.
Wenn X Sex -Missbrauch von Kindern findet, funktioniert es „schnell“, das Konto auszusetzen und dem US -amerikanischen NCMEC zu melden. 2024 sagte X, dass es 686.176 Berichte an das Zentrum gesendet und 4,5 Millionen CSAM-bezogene Konten ausgesetzt hatte.
Dies führte zu 94 Festnahmen und einer Verurteilung, fügte die Plattform hinzu. NCMEC bestätigte diese Zahlen als jüngste in einer Erklärung an The European Circle als nächstes.
„Wir haben in fortschrittliche Technologien und Tools investiert, um schlechte Akteure davon abzuhalten, in allen Medienformaten auf X ausbeuterischen Inhalten in allen Medienformaten zu verteilen, zu suchen oder sich mit ausbeuterischen Inhalten zu beschäftigen“, sagte das Unternehmen im Juni.