Mit Bildgeneratoren wie DALL-E, Midjourney und Stable Diffusion kann man im Nu photorealistische Bilder erzeugen. Ob ein im Internet kursierendes Foto echt ist oder ein Fake, ist oft kaum noch erkennbar. Können wir unseren Augen künftig noch trauen? Darüber sprechen Carina Schroeder und Ralf Krauter in Folge fünf des Dlf-Podcasts „KI verstehen“.
Kapitelmarken
(0:06) Carina führt Ralf mit einem KI-generierten Bild in die Irre
(4:32) Wie der Bildgenerator Stable Diffusion photorealistische Katzenbilder erzeugt
(6:54) Europol und BKA warnen vor einer Flut an gefälschten Bildern
(12:10) Brauchen wir eine Kennzeichnungspflicht für KI-generierten Content?
(14:05) Detektionstools zur Erkennung von Deepfakes
(16:30) Bilderrückwärtssuche kann Fake-Fotos enttarnen
(22:32) Wir können unseren Augen immer weniger trauen
(25:40) Politik, Wirtschaft und Gesellschaft müssen das Problem gemeinsam angehen
Weiterführende Links