Was sind Deepfakes?
ChatGPT und andere Sprachmodelle verblüffen mit ihren automatisch kreierten Texten und beeinflussen die Diskussion um die digitale Transformation.
Gleichzeitig sind solche Systeme auch in Bild, Ton und Video auf dem Vormarsch.
Kritisch wird es, wenn solche Systeme kombiniert werden. Z.B. zu sogenannten Deepfakes.
Deepfakes sind manipulierte Bilder oder Videos, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden und dazu genutzt werden können, Personen oder Objekte in anderen Situationen zu zeigen als in der Realität.
Bis galt ein Video oder ein Photo als sicherer Beweis, dass etwas so wie gesehen stattgefunden hat oder gesagt wurde.
Die Verbreitung von Deepfakes ist allerdings ein wachsendes Problem, da z.B. Politiker:innen oder Prominente in fiktiven Szenarien dargestellt werden, um Propaganda zu verbreiten oder um falsche Aussagen zu generieren. Was wir sehen, entspricht nicht mehr unbedingt der Realität.
In einem kürzlich erschienenen Artikel erklärte ein Bildforensiker, dass diese Technologie noch relativ am Anfang steht. Im Moment können solche Aufnahmen oft schon durch Augenerkennung als synthetisch erkannt werden kann. Gleichzeitig wird es immer schwieriger sie zu erkennen.
Gleichzeitig nutzen auch fast alle von uns unbemerkt solche Systeme. Wer ein Photo mit dem Mobile Phone aufnimmt, kriegt fast immer ein durch AI aufgepepptes Photo zu sehen (schönere Farben, Lichtabgleich etc.). Tiktkok bietet z.B. auch schon Filter für Videos, welche eine Person verjüngen. Von Auge ist dies kaum mehr zu erkennen.
Ab wann gilt ein Bild oder Video als nicht mehr «echt»?
Was bedeutet dies für unseren Alltag? Was dürfen wir noch glauben?
Heute werden bei Unsicherheit Experten zugezogen, welche Bilder analysieren und aufgrund von verschiedenen Merkmalen eine Einschätzung abgeben (Multimedia-Forensik).
Was aber, wenn von jedem Bild und jedem Video zuerst noch der Echtheitsgehalt bestimmt werden muss?
Braucht es neue technische Methoden, um echte Bilder und Videos als solche zu kennzeichnen? Muss eine Infrastruktur aufgebaut werden, welche anhand einer Kette von Nachweisen Originale als solche referenzieren kann?
Es ist auch für Unternehmen und Regierungen wichtig, diese Gefahren zu erkennen und Massnahmen zu ergreifen.
Auf persönlicher Ebene solle jede Person Vorsicht walten lassen beim ziehen von Schlüssen aus einem Video oder Photo.
Schreibe einen Kommentar