Sofort Hilfe clickandstop.ch
WTF: Gülsha sorgt für Aufsehen und Aufklärung

OnlyFakes:

Künstlich erzeugte Nähe mit realen Auswirkungen

❗ Triggerwarnung: Diese Seite thematisiert digitale sexualisierte Gewalt.

Image
Image
Image
Image
Image
Image
Image
Echt oder?

Stell dir vor: Du entdeckst Gülsha Adilji (oder dich selbst!) auf einer Plattform wie OnlyFans. Das Gesicht vertraut, doch kein einziges Bild ist echt.

Mit diesem täuschend echten Mock-up-Account zeigen wir, was tagtäglich im Netz passiert – oft ohne Wissen der Betroffenen. Wir möchten verdeutlichen, wie einfach sich heute intime Deepfakes erstellen lassen und wie schnell dadurch Ruf, Privatsphäre und Sicherheitsgefühl zerstört werden können. Gleichzeitig stellen  wir Schutzmöglichkeiten vor.

Digital Fake

Die Obenohne-Fotos wurden von KI-Künstler Basil Stücheli mit künstlicher Intelligenz generiert.

Hier zeigt Basil, wie aus dem Originalbild aus dem Ringier Archiv von Geri Born ein täuschend echtes Fake-Foto entsteht:

Was macht Sextortion mit uns?

Schock-Effekt

Du zweifelst an dir selbst und deiner Kontrolle über dein Bild.

Machtgefälle

Täter:innen haben etwas, das du nicht stoppen kannst und womit sie dir drohen.

Epressungsversuch

Viele zahlen, um die Bilder verschwinden zu lassen – oft vergeblich.

Isolation

Aus Angst und Scham ziehen sich Betroffene zurück, anstatt Hilfe zu suchen.

Unser Ziel:

Aufzeigen, um aufzuklären

Fakes entlarven, bevor sie Schaden anrichten.

Aufrütteln und stärken

Betroffene unterstützen undTätermechanismen offenlegen.

Handeln statt wegsehen

Wissen, Tools und Hilfe zugänglich machen.

Bewusstsein stärken

Damit digitale Nähe nicht verletzend, sondern verbindend wirkt.

#OnlyFacts

Ein drittel aller Jugendlichen hatte bereits Kontakt mit sextortionähnlichen Inhalten.

(Quelle: clickandstop.ch, 2024, CH-Kontext)

80 % der Betroffenen melden sich nicht aus Angst/Scham.

(Quelle: Europol, IOCTA 2023, EU-Kontext)

KI erstellt aus einem Selfie täuschend echte Fake-Nacktbilder.

(Quelle: Sensity AI, 2023, „State of Deepfakes“)

98 % aller Deepfake-Videos im Internet sind pornographisch

(Quelle: Sensity AI, 2023, „State of Deepfakes“)

#ClickWithCare

Was du JETZT tun kannst
Wenn es dich betrifft:

- Nicht zahlen – nachgeben macht die Situation schlimmer.
- Sofort Hilfe holen auf clickandstop.ch – vertraulich, anonym und professionell.
- Beweise sichern, aber keine illegalen Inhalte speichern (Chat, Usernamen, Zahlungen dokumentieren).
- Täter blockieren – aber erst nach Beweissicherung.
- Anzeige bei der Polizei erstatten – sofortiges Handeln ist wichtig.

Vorbeugen:

- Privatsphäre-Einstellungen prüfen, Profile auf privat stellen.
- Starke Passwörter und 2FA (Zwei-Faktor-Authentifizierung) nutzen.
- Keine intimen Bilder an Unbekannte senden, auch nicht an vermeintlich Vertraute.
- Keine weitergeleiteten Links/Dateien unbekannter Absender öffnen.
- Reverse Image Search nutzen (z.B. Google Lens).
- Keine eigenen sensiblen Inhalte speichern/teilen oder weiterleiten.
- Bei Unsicherheit mit Bezugspersonen oder Beratung sprechen

Was du JETZT tun kannst

#NoShameZone
Du bist nicht allein

3 Ratschläge von Bloggerin Anja SchuSchu:

Zur Polizei gehen

Geh sofort zur Polizei und zeig den Täter oder die Täterin an.

Sofort darüber sprechen

Sprich direkt darüber – nicht erst nach 11 Jahren, wie ich.

Auf Fotos achten

Ein einzelnes Bild mag harmlos sein. Aber sei dir bewusst, welche Fotos du sonst noch veröffentlichst.

🎥 Anjas persönliche Story:

147.ch – Der Notruf für Jugendliche, anonym und sofort erreichbar.
Wertfreie Hilfe & Beratung per Telefon oder Chat.

Willkommen bei WHAT THE FAKE – lerne, wie du dich schützt auf clickandstop.ch.
In Kooperation mit Kinderschutz Schweiz & clickandstop.ch

Wichtiger Hinweis: Kampagnen-Inszenierung · kein echter Account.
Die Kampagne wird unterstützt von Kinderschutz Schweiz und Ringier. Gülsha Adilji ist informiert und steht hinter der Aktion.