Skip to content
Zurück

Technisches Problem melden

  Erpressung in Appenzell
Der 18-Jährige nahm einen Videoanruf entgegen. Kriminelle machten mit KI ein Sexvideo draus

Künstliche Nacktbilder von Sekschülerinnen, falsche Videos der UNO-Botschafterin und eine Flut von KI-Kinderpornos: Die verheerenden Folgen der Deepfake-Technologie erreichen die Schweiz.

0 seconds of 1 minute, 23 secondsVolume 90%
Press shift question mark to access a list of keyboard shortcuts
Tastaturkürzel
Spielen/PauseLeertaste
Lautstärke Erhöhen
Lautstärke Verringern
Vorwärts Springen
Rückwärts Springen
Untertitel An/Ausc
Vollbild/Vollbild Beendenf
Summ Schalten/Stummschaltung Deaktivierenm
Gehe zu %0-9
00:25
00:00
01:2
Markus erzählt, wie er mit einem KI-generierten Video erpresst wurde - Video starten,
In Kürze:
  • Markus wurde Opfer einer neuen Art von KI-Sextortion mit täuschend echten Videos seiner Privatsphäre.
  • KI-generierte Kinderpornografie nimmt derweil exponentiell zu und trifft nun auch Schweizer Schulen.
  • Vor Gericht behaupten inzwischen Beschuldigte, belastende Beweise seien nur KI-generierte Fälschungen.
  • Deepfakes sind bereits so gut, dass sie auch mit technischen Mitteln praktisch nicht mehr entlarvt werden können.

Es ist ein ruhiger Sonntagmittag im November letzten Jahres. Markus, ein 18-jähriger Schüler aus dem Kanton Appenzell Ausserrhoden, ist entspannt. Deswegen passt er eine Sekunde lang nicht auf und nimmt einen Videoanruf auf seinem iPhone an, ohne genau hinzuschauen. Was soll schon passieren?

Die Antwort erhält er Minuten später: Auf ihn wartet ein Albtraum. 

Ab der Sekunde, als Markus abnimmt, sendet er in Echtzeit hochauflösende Videobilder an einen Unbekannten auf den Philippinen. Bilder aus seiner Privatsphäre: von seinem Körper, seinem Gesicht, seinem Bett und dem Poster mit einem Rapper an der Wand hinter sich. Wie gefährlich das ist, realisiert Markus in dem Moment nicht. Er versucht, mit dem Mann Englisch zu sprechen. Doch der hängt gleich wieder auf.

Dank verschiedener KI-Programme wie Sora, Grok oder Veo 3 lässt sich inzwischen innert Sekunden aus einer echten Videovorlage ein gefälschter Film erstellen – ein sogenannter Deepfake. Ist er gut gemacht, erkennen die meisten Menschen die Fälschung nicht.

Der Filipino hat das kurze Gespräch mit Markus aufgezeichnet, füttert den Film in ein KI-Programm und erstellt damit ein perfektes Deepfake-Video. Es sieht genauso aus wie das Original, doch jetzt zeigt es Markus nicht beim Sprechen – sondern beim Masturbieren.

Nur Minuten nach dem Anruf erhält Markus eine Whatsapp-Nachricht. Angehängt ist der Deepfake von ihm.

«Das Video hat brutal echt ausgesehen», erinnert sich Markus. Um ihn zu schützen, haben wir seinen Vornamen hier geändert. Nicht nur er selbst wurde perfekt gefakt. «Man sah auch meine Trainerhosen, mein schwarzes T-Shirt, mein Poster im Hintergrund … Ich selbst hätte die Fälschung nicht erkannt, wenn ich es nicht gewusst hätte. Jeder, der mich kennt, würde glauben, das sei echt. Ich war total schockiert.»

Drohungen mit Deepfakes über Whatsapp

Doch das Video ist erst der Anfang. Sekunden nach der ersten Whatsapp-Nachricht kommt die nächste. Darin sind 14 Screenshots von all seinen Instagram-Kontakten. «Da waren selbst Leute, die ich kaum kenne, zum Beispiel die Freundinnen meiner Schwester», sagt Markus. Es sind insgesamt 150 Namen. Dazu schreibt der Erpresser eine Warnung in Grossbuchstaben: «ICH VERSENDE DAS VIDEO JETZT GLEICH AN ALLE. UND ICH WERDE SICHERSTELLEN, DASS SIE DICH ERKENNEN.»

Ein Screenshot einer Nachricht mit einem
                      Drohtext über das Senden von Informationen an
                      mehrere Personen. Oben sind Kontenlisten mit
                      unscharfen Namen sichtbar.
So drohte der Erpresser.
Screenshot: PD

In den nächsten 18 Minuten versucht der Erpresser, den 18-Jährigen mit immer drastischeren Drohungen zu zwingen, ihm 1000 Dollar via Western Union zu überweisen. 

Zunächst schickt er einen weiteren Screenshot von seinem Handy. Darauf sieht man, dass der Mann bereits eine Nachricht an eine Bekannte von Markus vorbereitet hat. Darin kündigt er der jungen Frau ein «Skandalvideo» von Markus an, auf dem dieser «alt aussieht». Der Mann braucht jetzt nur noch «Senden» zu drücken, und sein Deepfake landet bei der Freundin. «Soll ich ihr das schicken oder löschen?», schreibt er.

Überfordert von KI-Sextortion

Danach versucht der Erpresser, Markus achtmal hintereinander anzurufen, und schickt ihm währenddessen über 30 Whatsapp-Nachrichten, teils im Sekundentakt. Er nennt ihn «Motherfucker» und droht, sein Leben zu ruinieren. Er übt maximalen Druck aus:

12.58: «Antworte mir», «Antworte mir schnell»

13.07: «Was ist jetzt?», «Das dauert mir zu lang»

13.11: «Zahlst du jetzt?»

13.13 «Push mich nicht bis zum Limit», «Ok, ich beginne jetzt, es ihnen zu schicken»

13.14: «Ich zähle jetzt von 10 runter», «10», «9», «8» …

«Ich war total überfordert», erinnert sich Markus. «Ich war fassungslos, was technisch bereits machbar ist.»

Textnachricht mit Countdown von 10 bis 7 und
                      Drohung, ein Video zu verbreiten, wenn keine Hilfe
                      gesucht wird.
Als Markus nicht antwortete, startete der Erpresser einen Countdown.
Screenshot: PD

Markus ist Opfer einer sogenannten KI-Sextortion geworden. Kriminelle erpressen unbescholtene Menschen mit gefälschten KI-Sexbildern oder -videos. Betrüger setzen Deepfakes in der Schweiz aber auch im grossen Stil ein, um Geld von Firmen oder gutgläubigen Anlegern zu ergaunern – zum Beispiel mit falschen Videos von Prominenten wie Roger Federer oder Karin Keller Suter.

Die Deepfake-Technologie, der auch Markus zum Opfer fiel, verbreitete sich in den letzten Monaten rasend schnell. Dabei hinterlässt sie eine Spur der Verwüstung. Die Schäden, die diese Technologie anrichtet, steigen exponentiell – und nicht nur bei den Zigtausenden, die wegen Geld betrogen oder erpresst werden. Das zeigt sich bei drei weiteren Opfergruppen – auch in der Schweiz.

Kinderpornografie und KI

Gestern machte diese Redaktion einen Fall bekannt, bei dem Schüler einer Sekundarschule mittels KI Nacktbilder von zwei Mitschülerinnen erstellten – gegen deren Willen. Die Bilder teilten sie danach auf Snapchat. Sie nutzten dafür eine frei zugängliche Website, bei der selbst Jugendliche gratis kinderpornografische Bilder aus echten Vorlagen erstellen können. Inzwischen wurde der Fall an die Jugendanwaltschaft überwiesen.

In den USA und Spanien hatten solche Deepfakes teils traumatische Folgen für die betroffenen Schülerinnen. Sie sind strafrechtlich relevant, denn auch mit KI hergestellte sexualisierte Bilder von Kindern und Jugendlichen, die heimlich gemacht werden, gelten in der Schweiz als Kinderpornografie und sind strafbar.

Nell Fisher bei der Premiere der fünften
                      Staffel von Stranger Things in London, lachend, im
                      Vordergrund mit rotem Hintergrund.
Die 14-jährige Schauspielerin Nell Fisher aus der Netflix-Serie «Stranger Things» wurde von einem Täter mit Elon Musks KI-Assistent Grok virtuell in einen anzüglichen Bikini gesteckt.
Foto: Scott Garfitt (Invision/AP)

In ihrer neuesten Studie schreibt die renommierte britische NGO Internet Watch Foundation, sie habe letztes Jahr insgesamt 3440 KI-Videos mit sexuellem Kindesmissbrauch gefunden. Im Jahr davor waren es erst 13 gewesen. Die Zahl von fotorealistischen KI-Bildern und -Videos sei auf ein «gefährliches Niveau» gestiegen. Zwei Drittel des Materials sei inzwischen von der extremsten Kategorie. «Ohne sofortige Massnahmen werden KI-Tools zu ‹Maschinen für sexuellen Kindesmissbrauch›», schreibt die NGO.

Eingedämmt wird das Problem bislang nicht, wie der Skandal rund um das KI-Modell Grok von Elon Musk zeigt. Spezialisten der Firma AI Forensics sammelten zwischen dem 25. Dezember 2025 und dem 1. Januar 2026 eine zufällige Probe von öffentlichen KI-Bildern, die Nutzer mit Grok hergestellt hatten. Darin fanden sich 30 generierte Bilder von teils sehr jungen Mädchen in «minimaler Bekleidung, meistens in Bikini oder durchsichtigen Kleidern», schreibt AI Forensics in seinem Bericht. «Einige der generierten Bilder zeigten Kinder unter 5 Jahren.»

Inzwischen bestätigte die Firma von Musk einige Fälle auf X: «Ein Nutzer schickte ein Foto von zwei jungen Mädchen (12 und 16) und beauftragte Grok, sie in sexy Unterwäsche von hinten zu zeigen.» Zu den Opfern gehörte auch die 14-jährige Schauspielerin Nell Fisher, bekannt aus der Netflix-Serie «Stranger Things».

Das Problem trifft auch die Schweiz. «KI-generierter, pädopornografischer Inhalt stellt die Polizei vor grosse Herausforderungen», schreibt das Bundesamt für Polizei in einem Bericht. «Die Menge des Materials nimmt seit Jahren exponentiell zu, doch der Aufwand, zwischen echten und KI-generierten Bildern zu unterscheiden, wird immer komplexer und grösser.» Nachdem die Polizei in Dänemark über 30’000 KI-generierte, kinderpornografische Bilder beschlagnahmt hatte, fanden sich auch drei mutmassliche Käufer in der Schweiz. Nach Hausdurchsuchungen in Basel-Landschaft, Luzern und Zürich wurden sie letztes Jahr festgenommen.

Deepfakes in der Politik

Im Mai 2023 präsidierte Pascale Baeriswyl als Vertreterin der Schweiz den UNO-Sicherheitsrat und war damit im Fokus einer breiten Öffentlichkeit rund um die Welt. Was bis heute kaum bekannt ist: Schon damals wurde sie Opfer eines politischen Deepfakes.

Während der Präsidentschaft Baeriswyls zirkulierte in den sozialen Medien ein Video, das vermutlich von Akteuren der Krise in Haiti geteilt wurde. Das Video zeigte Bilder von Baeriswyl, dazu ist eine Rede auf Französisch zu hören, die sie gehalten haben soll. Parallel ist eine englische Simultanübersetzung zu hören, wie sie üblich ist bei der UNO.

Beide Stimmen waren Fälschungen. Anders als bei heutigen Deepfakes haben die Fälscher es damals aber noch nicht geschafft, die Stimme der Botschafterin gut zu imitieren.

Pascale Christine Baeriswyl, die ständige
                      Vertreterin der Schweiz bei den Vereinten
                      Nationen, spricht bei einer Sitzung des
                      Sicherheitsrats der Vereinten Nationen in New York
                      über die Situation im Nahen Osten, einschliesslich
                      der Palästina-Frage. Ein Schild mit der Aufschrift
                      ’Switzerland’ ist vor ihr sichtbar.
Wurde Ziel eines Fakes: UN-Botschafterin der Schweiz Pascale Baeriswyl.
Foto: Michael M. Santiago (Getty Images / AFP)

Das Video wollte aber den Anschein erwecken, dass es sich um eine offizielle Äusserung der Präsidentin des UN-Sicherheitsrats handelt. Haiti steht seit längerem unter UNO-Sanktionen. Auf dem Fake-Video äusserte sich Baeriswyl kritisch gegenüber den Sanktionen gegen Haiti, was sie in Wahrheit nicht getan hatte. Die Fälschung diente offensichtlich den dortigen politischen und wirtschaftlichen Interessen.

Seit dem Vorfall fanden Deepfakes auch Einzug in die Schweizer Politik. Letzten Juni hoben National- und Ständerat die Immunität von SVP-Nationalrat Andreas Glarner auf, weil er einen Deepfake von Aussenpolitikerin Sibel Arslan geteilt hatte. Glarner liess die Basler Grüne-Politikerin sagen: «Ich will, dass alle kriminellen Türken ausgeschafft werden.» Inzwischen nutzen auch linke Kreise Deepfakes von Politikern.

Ein Screenshot eines Social Media Kommentars,
                      der besagt, dass der Nutzer nach dem Ansehen von
                      viel KI-Material unsicher ist, ob eine Person echt
                      ist. Der Kommentar hat 6199 Likes.
Vor der deutschen Bundestagswahl letztes Jahr konnten die Nutzer auf Youtube ein echtes Video von Kandidat Olaf Scholz nicht mehr als solches erkennen.
Screenshot: Youtube

2023 gründeten über 250 weltweit führende Forscher in Zürich das International Panel on the Information Environment. Seither liefert die Organisation regelmässig vertiefte Berichte über globale Angriffe auf die Informationssicherheit. 2025 veröffentlichten die Experten die bislang wohl umfassendste Studie zum Thema KI-Einsatz bei Wahlen weltweit.

Das Resultat: In 80 Prozent der Staaten, die 2024 Wahlen abhielten, kam es zu Zwischenfällen mit KI-Inhalten. «Es ging darum, Wähler zu beeinflussen, Falschinformationen zu verbreiten und demokratische Prozesse zu stören», heisst es in der Studie. Die Auswirkungen dieser Technik seien nicht mehr spekulativ. «Sie sind beobachtbar und global.» Und die Angriffe haben Erfolg.

In Rumänien, der Slowakei und sogar im Vatikan brachten Deepfake-Kampagnen die staatlichen Institutionen an den Abgrund. In der Türkei musste ein Gegenkandidat von Staatspräsident Recep Tayyip Erdogan in einer Wahl wegen eines pornografischen Deepfakes sogar zurücktreten. Das Resultat: Bei Videos von Politikerinnen und Politikern auf Youtube äussern sich immer mehr Nutzer, die nicht mehr wissen, ob sie echt sind. 

Auch die Schweiz ist nicht gefeit vor Fakes. Letzten Dezember erklärte das Staatssekretariat für Sicherheitspolitik beim Bund, dass die Schweiz 2025 im Visier einer Kampagne stand, die über sieben Social-Media-Plattformen lief. Darin wurde behauptet, die Schweiz versinke im Chaos. Dazu dienten Bilder von echten Auseinandersetzungen, die aber in anderem Kontext stattfanden. Die Kampagne – mutmasslich von Russland orchestriert – generierte über zwei Millionen Klicks.

Deepfakes beschäftigen die Justiz

Ein weiterer Effekt von Deepfakes beginnt sich erst langsam abzuzeichnen. Im Fachjargon nennt man ihn «die Dividende der Lügner». Gemeint sind die unerwarteten Vorteile für alle, die von echten Audioaufnahmen, Bildern oder Videos überführt werden. Sie haben nun dank KI die Möglichkeit, zu behaupten, das Beweismaterial sei nur ein Deepfake.

«Wir begegnen vermehrt Beschuldigten, die behaupten, ein Überwachungsvideo oder ein Handyfilmchen sei schlicht ein Fake», sagt Cordula Lötscher, Professorin für Privatrecht an der Universität Basel und nebenamtliche Richterin am Bundesgericht.

Früher habe man Videos einer Überwachungskamera, ein Handyfilmchen oder einen Whatsapp-Verlauf als zuverlässige Beweismittel gesehen. «Doch jetzt haben wir Beschuldigte, die sagen, dieses Video oder dieses Bild sieht zwar so aus wie ich, aber ich bin das nicht – und wir müssen damit umgehen, dass gute Fälschungen realistisch geworden sind.»

Dieses Phänomen ist neu. «Früher gab es weniger Möglichkeiten, solche Beweismittel überhaupt in guter Qualität zu fälschen», sagt die Richterin. «Heute muss man nicht mehr viel können, um ein Fake-Video oder Fake-Audios in täuschend echter Qualität herzustellen.»

Richterin Cordula Lötscher mit langen braunen
                      Haaren steht vor einem Bücherregal voller bunter
                      Bücher.
Beschuldigte behaupteten inzwischen, Beweisvideos seien gute Fälschungen, sagt Richterin Cordula Lötscher.
Foto: PD

Zwar reicht es vor Gericht nicht, einfach zu behaupten, ein Beweis sei gefälscht. Aber allein die technischen Möglichkeiten sorgen bei den Staatsanwaltschaften und den Gerichten für mehr Arbeit bei der Verifikation von Beweisen. «Und diese Probleme werden möglicherweise drastisch zunehmen», befürchtet Lötscher.

In den USA wurden solche Lügen schon mehrfach öffentlich. Elon Musk versicherte vor Gericht, ein Beweisvideo von ihm sei gefälscht. Die Richterin wies das ab. Auch Beteiligte am Sturm auf das US-Capitol 2021 erklärten vor Gericht, die Videobeweise gegen sie seien Deepfakes. Sie wurden zwar trotzdem verurteilt, aber später von Donald Trump wieder begnadigt. Der Präsident selbst bezeichnete echte Videos von den grossen Zuschauermengen seiner Rivalin Kamala Harris als Fakes.

Wie reagierte das Opfer Markus?

In allen vier Bereichen – Sextortion, Kinderpornos, Politik und Justiz – sind sich Experten einig, dass die schlimmsten Auswirkungen der Deepfake-Technologien erst bevorstehen. In seinem neuen globalen Risiko-Report vom Januar 2026 schreibt das World Economic Forum: «Innerhalb eines Jahrzehnts können Deepfakes allgegenwärtig werden. Für die Bürger wird es dann unmöglich, Wahrheit von Täuschung zu unterscheiden.»

«Es wird wohl in Zukunft auch mit technischen Mitteln nicht mehr möglich sein, zumindest mit Standardverfahren, die Deepfakes noch zu erkennen – sie werden einfach zu gut», sagt Peter Eisert, Professor für Visual Computing an der Berliner Humboldt-Universität. Er hat Methoden studiert, mit denen sich Deepfakes entlarven lassen.

Spezialisierte Programme können zum Beispiel in einem echten Video den Pulsschlag eines Menschen in dessen Gesicht ablesen. Computer scannen dafür die für Menschen unsichtbaren Farbveränderungen der Pixel im Gesicht. «Jetzt mussten wir feststellen, dass moderne KI-Modelle diesen Herzschlag im Gesicht auch in ihre Deepfakes bauen», sagt Eisert. Mit anderen Worten: Die neuesten Deepfakes imitieren selbst den menschlichen Puls.

Zwei Bilder nebeneinander: Eine Frau in
                      schwarzer Kleidung wird von einer unscharf
                      dargestellten, uniformierten Person begleitet.
                      Text auf dem Bild lautet: ’Verhaftet: Far-left
                      Agitator Nekima Levy Armstrong für das
                      Orchestrieren von Kirchenunruhen in Minnesota.’
Ende Januar veröffentlichte das Weisse Haus ein Deepfake-Bild einer verhafteten Demonstrantin. Obwohl sie in Wahrheit gefasst war (links), stellte die US-Regierung sie in einem Fake (rechts) mit Tränen dar – und mit dunklerer Hautfarbe.
Fotos: X

Von alledem wusste der Appenzeller Schüler Markus wenig, als er an jenem Sonntag seinen eigenen Deepfake erhielt – und vor einem Abgrund stand. Dennoch macht sein Fall Hoffnung, dass man mit Mut und gesundem Menschenverstand auch gegen die schlimmste Desinformation ankommen kann.

«Zuerst war ich überfordert», erinnert sich der 18-Jährige. «Ich habe mir überlegt, wie ich das Geld beschaffen könnte. Ich wusste einfach nicht, was ich machen soll.» Doch dann habe er sich beruhigt und nachgedacht. «Ich dachte mir, wenn er das Video tatsächlich abschickt, wird er kein Geld mehr erhalten.»

Rat von der KI gegen KI-Sextortion

Markus ignorierte also die ganzen Beschimpfungen und Druckversuche mit Countdowns und Screenshots und verfasste derweil eine eigene Nachricht auf seinem Instagram-Profil, in der er vor dem Deepfake warnte.

0 seconds of 0 secondsVolume 90%
Press shift question mark to access a list of keyboard shortcuts
Tastaturkürzel
Spielen/PauseLeertaste
Lautstärke Erhöhen
Lautstärke Verringern
Vorwärts Springen
Rückwärts Springen
Untertitel An/Ausc
Vollbild/Vollbild Beendenf
Summ Schalten/Stummschaltung Deaktivierenm
Gehe zu %0-9
00:25
00:00
00:00
 
Markus berichtet, wie er auf die Erpressung per KI-Deepfake reagiert hat - Video starten.

Danach blockierte er den Filipino und meldete ihn auf Instagram. Schon am nächsten Abend wurde der Erpresser blockiert. «Aber an diesem Sonntag war ich den ganzen Tag sehr gestresst», erinnert sich Markus. Er hat auch danach tagelang schlecht geschlafen. «Ich wusste ja nicht, ob das Video doch noch kommt», erklärt er. Er hat gesurft und recherchiert, was in solchen Fällen üblicherweise passiert. Sogar Chat-GPT hat er gefragt. Die KI sollte ihm helfen, den Schaden von KI zu lindern.

So fand er schnell heraus, dass die Videos in den meisten Fällen von Sextortion nicht veröffentlicht werden. Und so war es letztlich auch in seinem Fall. Der Mann auf den Philippinen hat es bis heute nicht an Markus’ Freunde verschickt.

«Man sollte seine Umgebung warnen und auf keinen Fall bezahlen», sagt Markus. «Wenn du Geld schickst, hören sie nicht auf, sondern verlangen immer mehr, weil sie wissen, dass du jemand bist, der bezahlt. Ich finde es wichtig, dass alle das wissen. Gegen diese Deepfakes hilft nur eines: Aufklärung.»

Haben Sie einen vertraulichen Tipp für uns? Verfügen Sie über Informationen oder Dokumente, die an die Öffentlichkeit gehören? Es gibt verschiedene Mittel und Wege, um sicher und anonym mit unseren Journalistinnen und Journalisten Kontakt aufzunehmen. Hier zeigen wir Ihnen, wie.