LONDON (AP) – Fälschungen durch künstliche Intelligenz werden schnell zu einem der größten Probleme, mit denen wir online konfrontiert sind. Durch den Anstieg verbreiten sich irreführende Bilder, Videos und Audiodateien Missbrauch generativer künstlicher Intelligenzwerkzeuge.

Da fast täglich KI-Deepfakes auftauchen und jeden filmen… Taylor Swift Zu Donald Trump Für Katy Perry, die an der Met Gala teilnimmt, ist es schwierig geworden, zwischen dem, was real ist, und dem, was nicht, zu unterscheiden.

Video- und Bildgeneratoren wie DALL-E, Midjourney, OpenAI Sora Sie machen es Menschen ohne technische Kenntnisse leicht, Deepfake-Fotos zu erstellen – schreiben Sie einfach eine Anfrage und das System wird sie ausstellen.

Diese gefälschten Fotos mögen harmlos erscheinen. Sie können jedoch für Betrug, Identitätsdiebstahl oder Propaganda und Wahlmanipulation eingesetzt werden.

Eine Grafik hebt nur einige der bemerkenswerten Bereiche des KI-generierten Deepfakes von Papst Franziskus hervor, der sich in den sozialen Medien verbreitet hat.
Eine Grafik hebt nur einige der bemerkenswerten Bereiche des KI-generierten Deepfakes von Papst Franziskus hervor, der sich in den sozialen Medien verbreitet hat.

In den Anfängen von Deepfakes war die Technologie alles andere als perfekt und hinterließ oft offensichtliche Anzeichen von Manipulation. Faktenprüfer haben auf Bilder hingewiesen, die offensichtliche Fehler enthielten, etwa sechsfingrige Hände oder Brillen mit unterschiedlich geformten Gläsern.

Aber je besser die künstliche Intelligenz wird, desto schwieriger wird es. Einige weit verbreitete Ratschläge – etwa die Suche nach ungewöhnlichen Blinzelmustern zwischen Personen in Deepfake-Videos – gelten nicht mehr, sagte Henry Agder, Gründer des Beratungsunternehmens Latent Space Advisory und führender Experte für generative KI.

Es gebe noch einiges zu suchen, sagte er.

viel von Gefälschte Fotos mit Technologie der künstlichen IntelligenzSpeziell für Menschen verfügen sie über E-Lumineszenz, einen „ästhetischen Glättungseffekt“, der die Haut „unglaublich poliert aussehen lässt“, sagte Agder.

Er warnte jedoch davor, dass kreative Stimulation manchmal dieses und viele andere Anzeichen einer KI-Manipulation beseitigen könne.

Überprüfen Sie die Konsistenz von Schatten und Beleuchtung. Das Motiv ist oft scharf abgebildet und sieht überzeugend lebensecht aus, Elemente im Hintergrund sind jedoch möglicherweise nicht so realistisch oder so ausgefeilt.

Face Swapping ist einer der häufigsten Deepfakes. Experten raten, die Gesichtsränder genau zu betrachten. Passt die Hautfarbe des Gesichts zum Rest des Kopfes oder Körpers? Sind die Gesichtsränder scharf oder verschwommen?

Wenn Sie den Verdacht haben, dass ein Video, in dem jemand spricht, manipuliert wurde, schauen Sie sich seinen Mund an. Stimmen ihre Lippenbewegungen genau mit dem Klang überein?

Es ist besser, einen Blick auf die Zähne vorzuschlagen. Ist es klar oder ist es etwas verschwommen und stimmt nicht mit der Realität überein?

Das Cybersicherheitsunternehmen Norton sagt, dass Algorithmen möglicherweise noch nicht ausgereift genug sind, um einzelne Zähne zu erstellen. Daher könnte das Fehlen von Umrissen einzelner Zähne eine Lösung sein.

Denken Sie über das Gesamtbild nach

Manchmal ist der Kontext wichtig. Nehmen Sie sich Zeit, darüber nachzudenken, ob das, was Sie sehen, angemessen ist oder nicht.

Poynter Press-Website Beraten Wenn Sie sehen, dass eine Persönlichkeit des öffentlichen Lebens etwas tut, das „übertrieben, unrealistisch oder untypisch“ erscheint, könnte es sich um einen Deepfake handeln.

Trug der Papst zum Beispiel wirklich eine schicke Steppjacke? darstellt Durch ein berüchtigtes Fake-Foto? Wenn ja, würden dann nicht zusätzliche Fotos oder Videos aus legitimen Quellen gepostet?

Bei der Met Gala waren es die extravaganten Kostüme, die für noch mehr Verwirrung sorgten. Solche großen Veranstaltungen werden jedoch in der Regel von offiziell zugelassenen Fotografen begleitet, die zahlreiche Fotos produzieren, die bei der Überprüfung hilfreich sein können. Ein Beweis dafür, dass Perrys Foto gefälscht war, war der Teppich auf der Treppe, der laut einigen aufmerksamen Social-Media-Nutzern von der Veranstaltung im Jahr 2018 stammte.

Mit künstlicher Intelligenz gefälschte Produkte finden

Ein anderer Ansatz besteht darin, KI zur Bekämpfung von KI einzusetzen.

OpenAI gab am Dienstag bekannt, dass es ein Tool zur Erkennung von Inhalten einführen wird, die mit DALL-E 3, der neuesten Version seines KI-Bildgenerators, erstellt wurden. Microsoft entwickelt Authentifizierungstool Es kann Bilder oder Videos analysieren, um eine Aussage darüber zu treffen, ob sie manipuliert wurden oder nicht. Intel-Chiphersteller FakeCatcher Es verwendet Algorithmen, um Pixel in einem Bild zu analysieren, um festzustellen, ob es echt oder gefälscht ist.

Es gibt Online-Tools, die versprechen, gefälschte Produkte zu erkennen, wenn Sie eine Datei herunterladen oder einen Link zu verdächtigem Material einfügen. Einige, wie OpenAI und Microsoft Authenticator, stehen jedoch nur ausgewählten Partnern und nicht der Öffentlichkeit zur Verfügung. Dies liegt zum Teil daran, dass Forscher schlechten Akteuren keinen Hinweis geben und ihnen im sich verschärfenden Wettrüsten einen größeren Vorteil verschaffen wollen.

Der offene Zugang zu Erkennungstools kann den Menschen auch den Eindruck vermitteln, dass es sich um „göttliche Technologien handelt, die kritisches Denken an uns auslagern können“, obwohl wir uns stattdessen ihrer Grenzen bewusst sein müssen, sagte Agder.

Hindernisse beim Auffinden gefälschter Produkte

Dabei schreitet die künstliche Intelligenz mit erstaunlicher Geschwindigkeit voran und KI-Modelle werden auf Internetdaten trainiert, um immer hochwertigere Inhalte mit weniger Fehlern zu produzieren.

Das bedeutet, dass es keine Garantie dafür gibt, dass diese Empfehlung auch in einem Jahr noch gültig ist.

Experten sagen, dass es gefährlich sein könnte, gewöhnlichen Menschen die Verantwortung zu übertragen, zu digitalen Sherlocks zu werden, da dies ihnen ein falsches Selbstvertrauen vermitteln könnte, da es selbst für geschulte Augen immer schwieriger wird, Deepfakes zu erkennen.

Swenson berichtete aus New York.

Leave A Reply