Künstliche Intelligenz: Wenn Deepfakes zu "News" werden

© ProPK, SID-Logos: Klicksafe
Pornografische Szenen, die nie stattgefunden haben und digitale Avatare, die als Influencerinnen und Influencer in den sozialen Netzwerken gefeiert werden. Aussagen von Nachrichtensprechern und Politikern, die nie getätigt wurden. – Technologien rund um generative künstliche Intelligenz (KI) entwickeln sich rasant und bringen neue Herausforderungen für unsere Gesellschaft mit sich. Eine besondere Bedrohung stellen Deepfakes – KI-generierte oder manipulierte Medieninhalte – dar, die kaum von echten Bild-, Video- oder Tonaufnahmen zu unterscheiden sind. Diese Technologien haben damit das Potenzial, die öffentliche Meinung zu verzerren, Wahlen zu beeinflussen und unser Vertrauen in Informationen und Medienberichterstattung grundlegend zu erschüttern.
Die bloße Existenz von Deepfakes kann für Misstrauen und Angst sorgen, da die Echtheit von Informationen immer häufiger in Frage gestellt wird. Die Behauptung, dass etwas ein Deepfake ist, kann genutzt werden, um von der Wahrheit abzulenken oder sie zu diskreditieren (vgl. "Liar's Dividend").
Safer Internet Day 2025: „Keine Likes für Lügen“
Informieren Sie sich rund um den Safer Internet Day 2025 am 11. Februar den ganzen Monat in den vielfältigen Aktionen, Workshops, Veranstaltungen und Webinaren, wie Sie Extremismus, Populismus und Deepfakes im Netz erkennen können.
Einsatz von Deepfakes im Wahlkampf - auch in Deutschland?
In den Jahren 2023 und 2024 wurden international einige Versuche von illegitimer Einflussnahme auf das Wahlverhalten durch die gezielte Verbreitung von Falschen Informationen durch Deepfakes registriert.
Auch in Deutschland kursieren insbesondere im politischen Kontext immer mehr solcher Fakes. Prominente Beispiele sind ein gefälschtes Video, das den Bundeskanzler zeigt, wie er ein Partei-Verbot fordert, sowie Deepfake-Audios, die die Tagesschau diskreditieren sollten.
Kann man Deepfakes erkennen?
Mittlerweile gibt es Programme, die ebenfalls auf Basis Künstlicher Intelligenz versuchen, die Echtheit von Videos, Bildern und Audioinhalten zu prüfen und Fälschungen zu identifizieren.
Inzwischen ist es jedoch teils sehr schwierig, Fakes von echten Inhalten zu unterscheiden, auch für andre KIs.
Es gibt derzeit immer noch Bereiche, bei denen sich die KI-Bildgeneratoren schwertun, z. B. bei der Darstellung von Ohren und Händen oder von Gegenständen, die in Händen gehalten werden. Auch Lichtfall und Schatten sowie Perspektiven oder inkonsistente Bewegungen können Anhaltspunkte für Fakes sein.
- Achten Sie auf Artefakte: Hände haben oft zu wenige oder zu viele Finger, Arme fehlen oder sind abgeschnitten, Ohren haben eine schlecht ausdifferenzierte Form, ein "leerer" Blick.
- Bei Videos können inkonsistente oder allzu statische Bewegungsabläufe ein Hinweis sein (z. B. verzerrte Gesichter/Mimik oder ein zu rhythmisches Blinzeln).
- Prüfen Sie die Perspektive: Passen die Lichteinstrahlung und der Schattenwurf zusammen? Gibt es Verzerrungen?
- Prüfen Sie die Auflösung bzw. die Qualität des Bildes: Hat das Gesicht beispielsweise dieselbe Auflösung wie der Körper oder der Hintergrund des Bildes?
- Ist der Inhalt des Bildes oder Videos plausibel? Prüfen Sie andere Quellen. Lässt sich der dargestellte Inhalt unabhängig auf den Wahrheitsgehalt hin prüfen?
Hilfreich können bei der Prüfung auch seriöse News-Seiten, Faktencheck-Portale und die Bilder-Rückwärtssuche von Suchmaschinen sein.
Weitere Informationen finden Sie auf folgenden Seiten
Laden Sie sich unser passendes kostenloses Social Media Paket zur Bewerbung des Themas herunter:
FAQs zu Deepfakes
Wie einfach ist es, Bilder, Videos und Tonaufnahmen zu faken?
Deepfakessind mit Hilfe künstlicher Intelligenz (KI) erstellte, realistisch wirkende Medieninhalte - das können Bilder, Videos oder Tonaufnahmen sein.
Um realistisch wirkende Deepfakes herzustellen, reicht heute ein einzelnes Foto aus einem öffentlich zugänglichen Social-Media-Profil. Durch kostenlose Face-Apps und frei verfügbare Browser-Anwendungen können Deepfakes mit wenigen Klicks generiert und anschließend über soziale Netzwerke oder Messenger zu verbreitet werden.
Wofür werden Deepfakes genutzt?
Deepfakes können zu verschiedenen Zwecken eingesetzt werden. Die Anwendungsmöglichkeiten reichen von Satire und Unterhaltung über bewusste Desinformation und Propaganda bis zur gezielten Diskreditierung einzelner Personen. Wie die obigen Beispiele zeigen, sind können Deepfakes besonders gefährlich im Zusammenhang mit Fake News werden, da sie diese noch realistischer gestalten können.
Auch für Cybermobbing werden Deepfakes benützt und beispielsweise die Köpfe von Betroffenen in Porno-Videos montiert und per Messenger verbreitet.
Betrug mit Deepfakes?
Es ist auch denkbar, dass KI mit betrügerischer Absicht genutzt wird. Love-Scammer könnten beispielsweise diese Technik in Dating-Apps nutzen oder in Online-Partnerbörsen versuchen, andere Personen dazu zu bringen, erotisches Material mit ihnen zu teilen, um sie damit zu erpressen. Dabei geben sich die Täter als attraktive Männer oder Frauen aus und nutzen Deepfake-Videochats, um das Vertrauen von möglichen Opfern zu erlangen. Dieses Vorgehen ist als Sextortion bekannt.
Für die Gesellschaft bedeutet das, dass Betrüger immer einfacher Bilder, Stimmen oder auch Texte verfremden und zu ihrem Nutzen ändern können. Es wird somit schwieriger, echtes von gefaktem zu Unterscheiden. In der Prävention muss dies in Zukunft stärker bedacht und vermehrt darauf hingewiesen werden. Doch KI wird nicht nur von Tätern und Täterinnen genutzt, auch die Polizei und Strafbehörden setzen bei Ermittlungen vermehrt auf KI-basierte Analyse-Tools.
Was tun, wenn Sie Ihr Konterfei in einem Fake entdecken?
Deepfakes verletzen, juristisch gesehen, ohne entsprechende Berechtigung durch die betroffenen Personen, die Persönlichkeitsrechte oder können Beleidigungen darstellen.
Wenn Sie Ihr Abbild in einem künstlich erzeugten Bild oder Video entdecken, das ohne Ihre Zustimmung erstellt und verbreitet wurde, können Sie den Inhalt der Plattform, auf der dieser veröffentlicht wurde, melden (in der Regel über einen "Meldebutton" oder eine entsprechende Funktion).
Zusätzlich können Sie Anzeige bei der Polizei erstatten oder sich juristische Hilfe holen. Speichern Sie dazu die URL des Fundortes ab sowie das Veröffentlichungsdatum und die Uhrzeit des Abrufs. Sie können auch Screenshots des Posts als Beweis erstellen. Bitte beachten Sie jedoch, dass es je nach Inhalt des Fakes strafbar sein kann, selbst in Besitz dieses Inhalts zu gelangen. Erstellen Sie deshalb keine Screenshots, wenn es sich beispielsweise um Darstellungen sexualisierter Gewalt oder Kinderpornografie handelt.
Wenn Sie sich unsicher sind, wie Sie die Beweise am besten sichern, können Sie sich bei Ihrer Polizeidienststelle vor Ort erkundigen.
Was sind Face-Apps?
Face-Apps nutzen eine Technik namens Face-Swapping, bei der das eigene Gesicht oder das Gesicht anderer Personen in Videoclips und Filmszenen eingesetzt wird. In Sekundenschnelle können solche Clips in überraschend guter Qualität erstellt und verbreitet werden.
Was ist ein Bildsynthesizer und wie funktioniert er?
Browserbasierte KI-Anwendungen, sogenannte Bildsynthesizer, erstellen (fotorealistische) Bilder anhand von Textbeschreibungen, sogenannten Prompts, und bieten ein breites Spektrum an Bildstilen. Dabei kann z. B. auf Bilder von prominenten Personen, bekannten Bauwerken und Landschaften zurückgegriffen werden. Diese technischen Möglichkeiten heben die Bildmanipulation auf ein neues Level.