Pressemitteilung von ERGO Group AG

So erkennen Internetuser Deepfakes - Verbraucherinformation der ERGO Versicherung


Internet & Ecommerce

So erkennen Internetuser Deepfakes - Verbraucherinformation der ERGO VersicherungFake News, betrügerische E-Mails, gefährliche Viren: Das Internet ist voller Gefahren und Falschinformationen. Immer häufiger tauchen aktuell mit Künstlicher Intelligenz manipulierte Fotos und Videos auf, sogenannte "Deepfakes". Was genau es damit auf sich hat, welche Gefahren Internetnutzern dadurch drohen und wie sie Deepfakes erkennen können, weiß Alina Gedde, Digitalexpertin von ERGO.

Was sind Deepfakes?

Immer mehr Menschen nutzen Anwendungen, die auf Künstliche Intelligenz setzen, um schnell und einfach Texte zu schreiben, Fotos aufzuhübschen oder einfach nur mit einem virtuellen Gesprächspartner zu chatten. Die neue Technologie birgt jedoch auch Gefahren wie sogenannte Deepfakes. "Das sind mithilfe von KI manipulierte oder erstellte Bilder, Videos oder Tondateien, die täuschend echt wirken und kaum als Fälschungen erkennbar sind", erklärt Alina Gedde, Digitalexpertin von ERGO. "Daher genießen sie häufig eine hohe Glaubwürdigkeit und verbreiten sich im Netz rasend schnell." Eine bekannte Masche ist es, beispielsweise Prominenten Worte in den Mund zu legen, die sie nie gesagt haben. "Das kann zum Zweck von Produktwerbung geschehen. Oft sollen Personen aber auch diffamiert oder gemobbt werden, etwa durch KI-erzeugte Fotomontagen, die sie scheinbar in verfänglichen Situationen zeigen", so Gedde. Das Besorgniserregende: Mit entsprechenden Apps kann heute jeder schnell und einfach Deepfakes erstellen. "Es ist aber bereits strafbar, andere ohne deren Einwilligung zu fotografieren. Wer also Fotos oder Videos fälscht oder verbreitet, begibt sich juristisch auf sehr dünnes Eis", warnt die Digitalexpertin. Sie empfiehlt Eltern, daher auch ihre Kinder für das Thema zu sensibilisieren.

Welche Gefahren Internet-Usern durch Deepfakes drohen

Cyberkriminelle setzen Deepfakes hauptsächlich ein, um die Meinung von Menschen zu beeinflussen, politische Propaganda zu verbreiten oder Personen des öffentlichen Lebens in ein schlechtes Licht zu rücken. Auch Trickbetrüger nutzen die Technologie, etwa um ihre Stimme am Telefon so zu manipulieren, dass sie wie ein Verwandter oder Bekannter ihres Opfers klingen. "Auf diese Weise versuchen sie dann, an sensible Daten wie Kontoinformationen oder Passwörter zu gelangen. Auch Betrugsmaschen wie der sogenannte Enkeltrick werden durch Deepfakes noch raffinierter", so Gedde.

Deepfakes erkennen

Computer, Smartphones und Co. werden immer leistungsfähiger - und damit auch KI-Anwendungen. Fälschungen lassen sich deshalb immer schwieriger als solche entlarven. Gedde empfiehlt Internetnutzern, bei Fotos und Videos auf ungewöhnliche Krümmungen von Armen und Beinen, falsche Proportionen, seltsam fallende Schatten, unnatürliche Bewegungen und ähnliche Details zu achten. Auch menschliche Mimik und Gestik sind für moderne KI-Anwendungen noch eine Herausforderung, hinzu kommen oft Ungereimtheiten wie Bildverzerrungen, Unterschiede in der Bildschärfe und Farbgebung oder fehlende Lippensynchronität in Videos. "Bei gefälschten Tonaufnahmen klingt die Stimme oft monoton und blechern. Auch falsche und unnatürliche Betonungen sowie ein abgehackter Sprechfluss können Hinweise auf einen Deepfake sein", so die Digitalexpertin von ERGO. Sie empfiehlt zudem, beispielsweise verdächtige Fotos auf einem großen Bildschirm anzusehen. So lassen sich Manipulationen besser erkennen als auf einem kleinen Smartphone-Display. Oft hilft auch schon eine einfache Internetsuche, um Deepfakes zu enttarnen. "Taucht ein scheinbar sensationelles Video auf keiner seriösen Nachrichtenseite auf, sondern nur auf zwielichtigen Social-Media-Kanälen, handelt es sich mit großer Wahrscheinlichkeit um einen Deepfake", weiß Gedde. Im Web gibt es zudem zahlreiche Faktencheck-Portale, auf denen sich Nutzer über aktuelle Deepfakes informieren können. Darüber hinaus gilt wie so oft: Nicht alles glauben und Informationen stets mit einem gesunden Maß an Skepsis betrachten - vor allem im World Wide Web.
Anzahl der Anschläge (inkl. Leerzeichen): 3.935


Weitere Ratgeberthemen finden Sie unter http://www.ergo.com/ratgeber. Sie finden dort aktuelle Beiträge zur freien Nutzung.

Das bereitgestellte Bildmaterial darf mit Quellenangabe (Quelle: ERGO Group) zur Berichterstattung über die Unternehmen und Marken der ERGO Group AG sowie im Zusammenhang mit unseren Ratgebertexten honorar- und lizenzfrei verwendet werden.

(Bildquelle: ERGO Group)

Firmenkontakt:

ERGO Group AG
ERGO-Platz 1
40477 Düsseldorf
Deutschland
0211 477-3012

http://www.ergo.com/verbraucher

Pressekontakt:

comcepta GmbH
Hansastraße 17
80686 München
089 99846118
http://www.comcepta.de


Diese Pressemitteilung wurde über PR-Gateway veröffentlicht.

Für den Inhalt der Pressemeldung/News ist allein der Verfasser verantwortlich. Newsfenster.de distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen.

Weitere Artikel von ERGO Group AG
Weitere Artikel in dieser Kategorie
20.01.2025 | metaprice GmbH
Neue Gebühren bei Amazon
17.01.2025 | metaprice GmbH
Amazon: Neue Gebühren für Verkäufe
S-IMG
Über Newsfenster.de
seit: Januar 2011
PM (Pressemitteilung) heute: 0
PM gesamt: 421.492
PM aufgerufen: 71.481.294