Content Authenticity Initiative: Ein Standard gegen Fakes

Stefanie Valdés-Scott leitet bei Adobe die Politik- und Regierungsbeziehungen für Zentraleuropa.
Foto: XPLR: MEDIA in Bavaria

Ist das Bild echt? Ist das, was ich sehe, so passiert? Im Kampf gegen Fakes und Desinformation geht die von Adobe ins Leben gerufene Content Authenticity Initiative einen besonderen Weg: Sie will die Entstehungsgeschichte von Bildmaterial transparent und fälschungssicher machen. Wir treffen uns im Münchner Büro des Software-Unternehmens mit Stefanie Valdés-Scott, um mehr über die Initiative zu erfahren.

Frau Valdés-Scott, Adobe hat 2019 zusammen mit Twitter und der New York Times die Content Authenticity Initiative gegründet. Inzwischen gehören ihr über 750 Mitglieder an, darunter auch die dpa oder der Stern. Wofür setzt sich die Initiative ein?

Wir wollen Menschen die Möglichkeit geben, die Herkunft und Bearbeitung von Bildern und Videos einfach nachprüfen zu können – transparent und fälschungssicher. Unser Ziel ist ein offener Standard, mit dem Medien, Journalist:innen, Künstler:innen und andere Kreative ihre audiovisuellen Arbeiten authentifizieren können. Wir wollen die Provenienz solcher Inhalte zweifelsfrei nachweisbar machen: Wer hat wann und wo das Foto oder das Video aufgenommen? Wie wurde es verändert?

Sie setzen also auf Authentifizierung von Inhalten statt auf die Erkennung gefälschter Inhalte.

Wenn Nutzer:innen sich informiert ein Bild machen können, ist das unserer Meinung nach der effektivste Weg, Fakes und Desinformation zu bekämpfen. Wenn wir Transparenz schaffen, können sie sich eine Meinung dazu bilden, was authentisch ist und was nicht – und bemerken auch, wenn ihnen diese Möglichkeit nicht gegeben wird. Erkennungstools sind wichtig, aber sie führen zu einem Wettlauf: Wenn ein KI-System Fakes erkennt, füttert es damit das lernende System, das Fakes erstellt und dann noch besser wird. Das ist ein Kampf gegen Windmühlen, der alleine nicht die Antwort ist.

»Unser Ziel ist ein offener Standard, mit dem Medien, Journalist:innen, Künstler:innen und andere Kreative ihre audiovisuellen Arbeiten authentifizieren können.«

Stefanie Valdés-Scott

 

Content Authenticity Initiative will auch Social Media erreichen

 

Was ist erforderlich, damit Medien und Medienschaffende fälschungssichere Herkunfts- und Bearbeitungsnachweise nutzen können?

Der technische Standard muss in ihren Systemen integriert werden. Bei Medien etwa im Content-Management-System. Wenn wir uns die ganze Wertschöpfungskette anschauen, beginnt sie aber viel früher. Wir wollen erreichen, dass der Provenienz-Nachweis an jeder Stelle möglich ist: Nicht erst bei der Bildbearbeitung und im Publishing-System, sondern schon beim Aufnehmen eines Fotos soll die Möglichkeit gegeben sein, per Opt-In die Metadaten anzuhängen. Und das fälschungssicher. Denn momentan sind Metadaten an audiovisuellem Material leicht manipulierbar.

Die Kette geht ja aber auch nach der Veröffentlichung durch Medien weiter – wenn Inhalte auf Social-Media-Plattformen geteilt werden. Sind diese auch gefragt?

Ja, absolut, ohne die Plattformen wird es nicht funktionieren. Gerade junge Menschen holen sich viele Informationen über Social Media. Da kommt den Plattformen eine Verantwortung zu, dafür zu sorgen, dass die Inhalte, die über sie verbreitet werden, authentifizierbar sind. Auch sie müssen die Informationen zur Content-Authentizität anzeigen können.

Deepfakes: Möglichkeiten und Gefahren

Die Regensburger Firma one4two erstellt selbst Deepfakes und kennt die Grenzen der Technologie.

Es geht um einen Open-Source-Industriestandard

 

Wie weit sind Sie bei der Umsetzung Ihrer Pläne?

Es gibt bereits eine erste Version des Standards. Wir als Adobe haben ihn mit dem Tool Content Credentials als Beta-Version in Photoshop schon integriert. Bei der Hardware – also Kameras oder Smartphones und den in ihnen genutzten Chips – wird es natürlich noch dauern, das flächendeckend umzusetzen. Aber wir haben bereits Prototypen und Case Studies – und führende Chiphersteller wie Qualcomm gehören der CAI ebenfalls an. Jeder Schritt, der umgesetzt ist, bringt uns weiter.

Wird der Standard für alle verfügbar sein?

Ja, das ist das Ziel. Die Initiative wäre gescheitert, wenn der Standard nur in Adobe-Tools implementiert wird. Wir wollen einen Open-Source-Industriestandard, der möglichst breit im gesamten Ökosystem verwendet wird. Und bei dem Nutzer:innen einfach auswählen können, wann sie welche Metadaten hinterlegen wollen. Denn natürlich gibt es Kontexte – Stichwort Quellenschutz – in denen das nicht gewünscht ist.

Foto: XPLR: MEDIA in Bavaria

Was war der Auslöser, die Initiative ins Leben zu rufen?

Wir bei Adobe glauben grundsätzlich an den verantwortungsvollen Einsatz von Technologie zum Wohle der Kreativen, unserer Kund:innen und der Gesellschaft. Das ist unser Engagement für „Digital Citizenship“. Unsere Tools demokratisieren digitale Kreativität  – weil sie Menschen einfache Möglichkeiten zur Bearbeitung bieten –  aber sie können manchmal auch missbraucht werden. Es lauern Gefahren, wenn manipulierte Fotos oder Videos Menschen bei Handlungen zeigen, die nie passiert sind.

Die Technologie dahinter ist nicht auf Schaden ausgerichtet, sie kommt in so ziemlich jedem Hollywood-Film zum Einsatz. Aber es gibt eben auch Missbrauchspotenzial, gegen das wir vorgehen wollen.

 

Awareness und Medienkompetenz schließen den Kreis

 

Die Initiative setzt den Schwerpunkt auf Provenienz. Sie unterstützt aber auch den Aufbau von Medienkompetenz. Können Sie da etwas mehr erzählen?

Wir sehen grundsätzlich vier Bausteine beim Kampf gegen Desinformation: Provenienz-Technologie, Auf- und Ausbau von Medienkompetenz, Erkennungstechnologie und die Politik – weil es auch darum geht, was durch Gesetzgebung und Regulierung erreicht werden kann.

Beim Stichwort Medienkompetenz ist wichtig, dass Nutzer:innen überhaupt wissen, welche Tools sie nutzen können und welche Möglichkeiten sie haben, Fälschungen zu erkennen. Wie sie Quellen prüfen und nachsehen können, ob das Bild schon in anderen Kontexten verwendet wurde. Konkret helfen wir in Schulen und Universitäten, Medienkompetenz zu stärken. Adobe selbst hat Education-Materialien, in denen wir erklären, wie der CAI-Standard funktioniert. Unsere Aktivitäten konzentrieren sich aktuell schwerpunktmäßig auf die USA, die Inhalte unserer Education Exchange können aber alle nutzen.

Welche Rolle spielen Technologie einerseits und Medienkompetenz andererseits denn beim Erkennen von Manipulationen und Fakes?

Das eine geht nicht ohne das andere. Die Systeme werden immer besser. Vor fünf Jahren ließ sich bei den ersten Deep Fakes noch mit bloßem Auge erkennen, dass etwas nicht stimmt. Inzwischen geht das ohne helfende Technologie nicht mehr.

Allein die Awareness, dass die Technik so gut ist, ist schon wichtig. Denn Menschen tendieren dazu, das zu glauben, was sie „mit den eigenen Augen“ sehen und selbst hören. Die Skepsis bei Text ist schon größer. Das Hinterfragen der Quellen auch auf audiovisuelle Medien auszuweiten, ist ganz wichtig.

Mehr von XPLR: MEDIA in deinem E-Mail-Postfach

Der Newsletter von XPLR: MEDIA in Bavaria zeigt dir, wie innovativ der Medienstandort Bayern ist. Join the innovators!

Bleibe mit dem XPLR: Newsletter immer auf dem Laufenden!

Newsletter abonnieren