Der Kampf gegen Fake News. Adobe – ja, genau die, die gerade mit ihrer neuen Software die Fakes in Bildern auf ein völlig neues Level gehoben haben – haben eine Initiative gestartet, die völlig an mir vorbeigelaufen ist, weil ich mal wieder so etwas nicht für möglich gehalten hatte.
Mittlerweile spielen da so illustre Gestalten wie Springer mit – die ja bekannt dafür sind, dass sie niiiiiiemals Fake News verbreiten. Der Stern ist auch dabei. (Sagt Kujau noch jemand was? Stern ist mittlerweile Gruner und Jahr, die wiederum RTL gehören. Jo. Genau die, die im Abendprogramm Rachepornos von Minderjährigen ohne Zustimmung der Opfer zeigten.) Microsoft (die jetzt gerade ihre IT-Security auf KI umstellen.) und als Kamerahersteller Canon, Nikon und Leica. Interessanterweise sind Bertelsmann und der Spiegel nicht dabei. Dafür IT-Dienstleister für Versicherungen.
Was macht nun „Content Authenticity“?
Die Idee ist, den Fotografen und die Bedingungen der Fotografie verschlüsselt in das Bild zu schreiben und alle folgenden Bearbeitungsschritte ebenfalls. Damit das irgendeinen Sinn haben soll – denn natürlich kann man ein bereits existierendes Bild entsprechend manipulieren und damit ist man genauso nass wie vorher – muss das direkt in der Kamera gemacht werden. Der Fotograf authentifiziert sich an der Kamera und kann dann knipsen und alle Software, die sich an den C2PA-Standard hält, führt dann diese Daten immer weiter mit.
Genial.
Unter der Bedingung, dass alle mitmachen.
Kleines Problem: Nahezu alle westlichen Nachrichtenagenturen sind Teil dieser Initiative. Man kann also darauf warten, dass diese Nachrichtenagenturen Kameras voraussetzen, die genau diese Funktion bieten, sonst werden die Fotos gar nicht mehr angenommen. Und da die dpa da natürlich dabei ist, wird das auch in alle deutschen Zeitungen durchschlagen.
Schöne, neue Welt?
Das Zeug ist Software. Und entsprechend gibt es natürlich auch Software, die das „simulieren“ kann. Da das „Hacker Tools“ wären, sind die natürlich in Deutschland illegal – außer bei den Behörden.
Wesentlich interessanter ist, dass man in Zukunft bei jedem Bild, das einer Redaktion „anonym“ zugespielt wird, sofort weiß, wo es herkommt. Ich finde es spannend, dass man fleißig an der Deanonymisierung von Fotografen arbeitet, eine Verschlüsselung in der Kamera, die eine Möglichkeit des Datenschutzes wäre, aber strikt ablehnt.
Aber,,,,, auf der Website steht doch ausdrücklich, dass der Fotograf die Wahl hat, ob er anonym bleibt oder die Daten erhalten will. Selbst wenn man den Versicherungen glaubt – und es gibt keinerlei Gründe, der Axel-Springer-AG nicht zu glauben – kann man das natürlich über die Seriennummern, die in den Makernotes stehen, aushebeln. Sobald die Kamera die Möglichkeit bietet, nach C2PA-Standard zu arbeiten, ist an eine echte Anonymität mit der Kamera nicht mehr zu denken.
Die Nummer ist, wie man sieht, nicht etwa ein Hirngespinst von ein paar Kontrollfreaks, sondern bereits im Rollen.
Eventuell ist es eine gute Idee, alte Kameras wie unsere OIys und alte Software zu behalten, die sich nicht selbstständig „updatet“ und einem die tollen, neuen Features unterjubelt.
Ist ja OK, wenn jemand partout will, dass überall sein Name steht. Deshalb kann man ja den Namen per Steganographie seit Jahren unsichtbar im Bild unterbringen. Oder ein Wasserzeichen anbringen. Oder ins Copyrightfeld schreiben.
Aber eine Pseudosicherheit erzeugen, die für die Leute mit den passenden Tools lächerlich einfach zu umgehen ist, aber unbedarften Fotografen zum Verhängnis werden kann?
Was haltet ihr davon?
Was sollman davon halten? Ein weiterer Schritt in Richtung gläserner Mensch und totale Kontrolle durch wen auch immer…
Wo bleibt unser „Einigkeit und Recht und Freiheit?“
Klingt ja auf den ersten Moment gut. Nie wieder fake news. Im Detail allerdings sieht das nach einem weiteren Schritt der totalen Überwachungsmöglichkeit aus. Vorratsdatenspeicherung ausgelagert. Wie praktisch. wenn eine Kamera ihren Fingerabdruck mit jedem Bild verbreitet. Wenn das sauber gemacht ist, kriegt man die Infos nur mit Bearbeitung raus, die das Bild für fast alles unbrauchbar macht. Ich frag mich, wann dann die ersten Hacks rauskommen, um Kameras zu anonymisieren.
womit wir wieder bei der ach so beliebten Datensicherheit wären… Nach langjähriger Tätigkeit im IT Bereich, in der ich mir den Mund fusselig geredet habe, wenn es um Datenschutz und Datensicherheit ging, habe ich heute aufgegeben, Leute davon zu überzeugen.
Menschen, die ihr gesamtes Leben in den sozialen(!) Medien ausbreiten und/oder die Meinung vertreten : „Ist doch nicht schlimm, ich habe doch nichts zu verbergen…“ werden die Problematik nie begreifen – bis ihnen irgendwann einmal das Ganze um die Ohren fliegt – dann war/ist es natürlich wieder mal die Schuld von anderen.
Principiis obsta !
kopfschüttelnde Grüsse zum Wochenende
Ach. Es ist müßig.
Ist das Bild das Problem? Ich glaube nicht.
Es sind die Umstände wie es entstanden ist. Gestellte Bilder sind ja schon öfters aufgeflogen in der Berichterstattung.
Und wenn ich nicht verifizieren kann, keine sichere Quelle habe, dann habe ich als Presse meinen Job nicht richtig gemacht. Mehr Eigenverantwortung.
Es ist eine unmögliche Unsitte unter Berichten aus Kriegs- und oder Krisengebieten zu schreiben, dass die Meldung von einer Konfliktpartei kommt und nicht überprüft werden kann.
Warum druck ich das dann?
Und Whistleblower werden nicht geschützt. Sie riskieren alles und oft genug kommen die, die den Dreck verursacht haben ungeschoren davon und der Verräter wird weggesperrt.
Des Weiteren leben wir doch mittlerweile in einer feuchten Traumwelt eines jeden totalitären Stasi Staates. Und das ganz freiwillig. Jeder gibt seinen kompletten Kommunikationsverlauf, Standortdaten, Zugriff auf Mikrofon und Kamera etc. freiwillig an Konzerne weiter, die nicht zögern, das jedem weiterzugeben, der Fragt. Oder die Daten gehen verloren oder werden gehackt.
Das gilt auch für Daten bei Behörden. Fingerabdrücke, Meldedaten, Steuerdaten, Krankenakten beim Arzt, Apotheke, Krankenkasse.
Und dann die Möglichkeiten, jemanden Beweise unterzuschieben, zukünftig dann direkt auf die Kamera strafrechtlich relevante Bilder laden.
Hach, die Möglichkeiten sind mannigfaltig.
Was ich davon halte ? Null und Nichts.
Es würde ein weiterer Layer an Komplexität bedeuten. Und wie heute Komplexität gehandhabt wird, sieht man ja: Ausfälle, Fehler, Lücken etc. Das Ganze wäre unzuverlässig und teuer zudem.
KISS !! (Keep it simple, stupid)
Gruss
Georg
Ich kenne mich technisch da nicht gut aus, aber lässt sich dieser „Schutz“ nicht schon durch einen einfachen Screenshot der Bilddatei aushebeln? Unabhängig davon wäre ich erstmal für die Entwicklung von Analysetools, die KI-Bearbeitungen automatisch erkennen und detektieren.
Klar doch.
Der Schutz lässt sich auch durch speichern ohne die entsprechenden Daten aushebeln. Bei der Initiative geht es auch nicht ein 100% sicheres System herzustellen sondern nachvollziehbar zu machen was an dem Bild gemacht wurde und ob es auf eine Kamera oder KI kommt. Sind die Informationen vorhanden ist diese Nachweis möglich ist die Information nicht vorhanden hat man die Situation ohne die Initiative.
Hat auch nichts mit gläsernem Menschen zu tun, Informationen über den Fotografen sind nicht teil sondern nur was mit den Bild geschehen ist und welche Bearbeitungsschritte vorgenommen wurden.
Empfehle die FAQ auf der Webseite https://contentauthenticity.org/faq zu lesen und sich zu informieren.
Tja, Du solltest diese FAQ eventuell selber lesen. Es wird nicht nur der Name, sondern – derzeit – auch die AdobeID in der Datei gespeichert. (Das Feld heißt „Produced by“.) Und ja, man kann natürlich entscheiden, seine Infos da nicht reinzupacken. Oder sie zu entfernen. Aber es geht nur „Alles weg“ oder „Alles drin“. Das Problem ist, dass, sobald sich das mal „durchgesetzt“ hat, Bilder ohne diese Daten generell als „Fake“ gelten und überhaupt nicht mehr verwendet werden und umgekeht, Bilder MIT diesen Daten, als „vertrauenswürdig“ – was sie überhaupt nicht sein müssen.
Die Idee an sich ist ja wie schon im Beitrag geschildert: super. Wenn man sie solide TPM basierend in der Kamera umsetzen würde, wäre die aufgebaute technische Hürde auf einem Niveau, das praktisch nur von staatlichen bzw. ähnlich gut ausgestatteten „Institutionen“ mit erheblichem Aufwand überwunden werden könnte. Wenn Die Funktion ausdrücklich abschaltbar gestaltet wird wie suggeriert, wäre Anonymisierung gewährleistet, und alles wäre gut.
Der Hauptvorteil in der Praxis liegt auf der Hand: Agenturen/Redaktionen können die technische Annahme von Bildern automatisieren und mit mehrstufigen Filtern (nach eigenen bzw. besonders vertrauenswürdigen Fotografen, Art/Umfang der Bearbeitung) versehen, so dass sich technisch nicht besonders versierte Redaktionsmitglieder beruhigt(er) auf Faktenchecks zu den erhaltenen Bildern konzentrieren können.
… und natürlich der Vorteil für die Kamerahersteller: Umsatz Umsatz Umsatz, yay … denn „Fotoreporter“ bräuchten ab sofort neue Kameras mit C2PA.
Das Problem bei diesen an sich toll klingenden Ideen ist aber oft, dass sie oft (auch beabsichtigt) zu kompromissbehaftet in die Praxis umgesetzt werden und sich zu einfach missbrauchen lassen. Daher ist Skepsis durchaus angebracht.
Das Problem ist eben der Quellenschutz. Journalistische Arbeit ist ohne Quellenschutz nicht denkbar. Und wenn sich dieses System durchsetzt, gibt es keinen Quellenschutz mehr, sobald Fotos oder Videos gemacht werden.
Wieso gibt es dann keinen Quellenschutz mehr? Die Datei kann nur das verraten was der Fotograf in der Kamera eingestellt hat es zwingt doch niemand die Fotografen dazu den Namen in der Kamera einzugeben. Wie du selbst in Deinen Artikel schreibst geben Journalisten JPG Daten aus der Kamera ab um schnell zu sein. Also keine Gefahr, das die Identität von Journalisten offengelegt wird.
Darum geht es bei der Initiative auch gar nicht, es geht darum sicherzustellen, dass nachvollziehbar bleibt welche Bearbeitung am Bild vorgenommen wurde und ob das Bild von einer Kamera oder einer künstlichen Intelligenz stammt. Also in die journalistische Arbeit wieder Vertrauen kommt und gegen Fake News gearbeitet werden kann.
Lies einfach den Artikel, die FAQ, die verlinkten Specs. Und natürlich sind die Daten in den JPGs. Was denkst Du denn? Und es geht ausschließlich darum, nachzuvollziehen, welcher Journalist was gemacht hat. Nur darum geht es.
Hallo Reinhard,
ein Artikel wie man ihn von dir kennt. Ich will gar nicht erst auf den Stil eingehen. Ich will nur eines richtig stellen, dass hier im Artikel leider nicht richtig beschrieben wurde. Es ist durchaus möglich anonymes Material ohne ID oder Namen zu erstellen, oder diese Information nachträglich zu entfernen und trotzdem der CAI zu entsprechen.
„The content author, and publisher (if authoring provenance data) always has control over whether to include provenance data as well as what assertions are included, such as whether to include identifying information (in order to allow for anonymous or pseudonymous assets). Included assertions can be removed in later edits without invalidating or removing all of the included provenance data in a process called redaction.“
Zitat aus C2PA Explainer (https://c2pa.org/specifications/specifications/1.3/explainer/Explainer.html)
Ein Journalist kann also auch Bilder anonym bereitstellen und die Welt kann trotzdem nachvollziehen, dass das Bild auf einer realen Fotografie besteht und welche Bearbeitungen daran vorgenommen wurden. Leica eine Firma die in ihre DNA die Unterstützung journalistischer Arbeit hat, hat dies als erstes begriffen und ich hoffe alle anderen Kamerahersteller folgen diesem Vorbild.
Ach ja und im Übrigen wundere ich mich ja doch ein wenig, dass du so auf der Adobe ID herumreitest, wenn ich mich recht erinnere schreibst du immer wieder Journalisten sind nicht in der Lage lange an Bildern herum zu schrauben und geben JPEG an die Redaktion weiter die direkt aus der Kamera kommen. Wie soll bitte an solche Bilder ein Adobe ID kommen? Hier kann es höchstens sein, dass der Fotograf in der Kamera seine Copyright Daten hinterlegt hat. Diese Funktion ist in den Kameras die mir bekannt sind ein und ausschaltbar.
Ich persönlich finde es gut, dass Adobe, die es auch ermöglichen Bilder mit künstlicher Intelligenz zu erstellen, sich darüber Gedanken machen wie man transparent machen kann aus welcher Quelle ein digitales Bild kommt. Ich sehe im Moment keine andere Möglichkeit am Horizont, die dies besser bewerkstelligen könnte. Leica, deren DNA es ist Journalisten best möglich zu unterstützen, haben die Zeichen der Zeit erkannt und mit der M11-P eine Kamera auf den Markt gebracht, die diese Initiative unterstützt. Ich hoffe alle anderen Hersteller werden diesem Beispiel folgen.
Als die SIM-Karten auf den Markt kamen, konnte man anonyme Prepaid-SIMs kaufen und betreiben. Ohne Vertrag und ohne Namen. Dann wurde das verboten. Aus Gründen.
Du kannst drauf warten, dass man aus Gründen (Kinderpornographie, Clankriminalität, you name it) auch bei Kameras die Möglichkeit zur Entfernung des Namens und der ID abschaltet.
Dass Springer und RTL eine Initiative zur Verhinderung von Fakes unterstützen ist an Lächerlichkeit nicht mehr zu überbieten.
Darum mach ich mir die wenigsten Sorgen, denn nach meinem Maßstab gibt es praktisch schon seit spätestens Ende der 2000er Jahre keinen ernstzunehmenden Quellenschutz mehr, weil die meisten Journalisten nur eine eklatant mangelhafte Sachkenntnis über digitale Überwachungswege vorweisen –aber das ist eine andere Geschichte.
Bei diesem System scheint mir das (gut gemeinte) Ziel wohl eher zu sein, die Authentizität der Bearbeitungsbeschreibung zu bescheinigen und möglichst auch die Identifizierung des „Urhebers“ mit seiner Zustimmung zu ermöglichen.
Kurz und schmerzlos. Die ganze Sache ist ein Witz – nur, dass man nicht darüber lachen kann.
Also die CAI sagt auf ihrer Webseite ausdrücklich, dass es möglich sein wird, personenbezogene Daten in den Datensätzen zu löschen bzw. gar nicht erst aufzunehmen (die zitierte Anwendung ist “Menschenrechtsaktivisten in totalitären Staaten” – eine Situation, in der es offensichtlich sinnvoll ist, nachvollziehbar zu machen, dass ein Foto nicht manipuliert ist, es aber für die Beteiligten extrem gefährlich ist, wenn man sie anhand ihrer Fotos namhaft machen kann). Dazu zählen sicherlich auch Daten wie die Seriennummer der Kamera.
Soweit ich es verstehe, ist das Ziel des Ganzen, die Bearbeitungsschritte explizit zu machen, die eine Image-Datei durchlaufen hat. Im einfachsten Fall bestimmt man vor und nach einer Bearbeitung eine kryptografische Prüfsumme (Hash) über die gewünschten Daten (Bild- und Metadaten), schreibt dazu, wann und ggf. wer die Bearbeitung gemacht hat, worin die Bearbeitung besteht, eventuell auch mit welcher Software, signiert dieses Datenpaket digital und hängt es an die Datei an – JFIF-Dateien können ja “Abschnitte” mit unterschiedlichen Datensätzen enthalten, da fügt sich das super ein. (Die CAI macht das alles ein bisschen allgemeiner und komplizierter, aber das Prinzip ist dasselbe.)
Als Empfänger der Datei kann ich dann überprüfen, ob die Kette der Bearbeitungsschritte lückenlos ist (d.h. für jeden Bearbeitungsschritt entspricht der “Vorher”-Hash dem “Nachher”-Hash des vorangegangenen Schrittes, und der “Nachher”-Hash des letzten Schritts entspricht dem aktuellen Hash der Daten) und ob für jeden Schritt die digitale Signatur valide ist. Wenn das alles stimmt, dann weiß ich, dass an der Datei nicht anderweitig rumgebastelt wurde. Mehr ist da erst mal gar nicht dran.
Es ist natürlich sehr sinnvoll, wenn eine Kamera ein Bild direkt mit einem anfänglichen signierten Hash versehen kann, der nachvollziehbar den Start der Kette repräsentiert. Dafür kann eine Kamera (oder eine Foto-App auf einem Handy) ein Zertifikat enthalten, das z.B. vom Hersteller der Kamera signiert wurde; eine Image-Datei, deren erster Hash mit einem solchen Zertifikat signiert wurde, kommt dann nachweislich aus einer Kamera (und wurde nicht anderweitig zusammengestoppelt und mit kameramäßigen Exif-Daten versehen). Dritte können solche Zertifikate nicht ausstellen und – gebotene Vorsicht beim Kamerahersteller vorausgesetzt – auch nicht aus einer Kamera extrahieren.
Es ist dafür natürlich nicht nötig, dass man sich als Fotograf bei seiner Kamera “authentifiziert” (Wie auch? Passwort? Fingerabdruck? Gesichts-Erkennung per Selfie? Vor jedem Foto? Nach jedem Einschalten der Kamera? Einmal am Tag?) und eine persönliche Identifizierung des *Fotografen* wird für das, was CAI leisten soll, namentlich die Bearbeitungsschritte eines Fotos von der Kamera bis zum Betrachter zu katalogisieren und verifizierbar zu machen, auch überhaupt nicht gebraucht. Was man wissen möchte, ist, dass ein Foto, das zum Beispiel angeblich den Hamas-Terror zeigt, tatsächlich im Oktober 2023 in Israel aufgenommen wurde und nicht 2021 in Syrien oder ein Screenshot aus einem Computerspiel ist. Man muss dafür nicht wissen, dass es von dem Fotojournalisten Hugo Schulz persönlich aufgenommen wurde.
Wenn die Kamera keinen “Start-Hash” macht, dann ist das auch nicht das Ende der Welt, denn dann macht es der Fotograf oder die Redaktion mit einem entsprechenden Werkzeug. (Dieses Werkzeug hat natürlich kein Zertifikat, das vom Kamerahersteller signiert wurde, sondern eins aus der PKI des Zeitungsverlags o.ä.) Natürlich kann man dann nichts über die Bearbeitungsgeschichte des Bildes sagen bis zu dem Moment, wo die CAI-Daten anfangen, aber effektiv ist man dann da, wo man auch die letzten 150 Jahre schon war – als Redakteur muss ich mich halt auf die Integrität meiner Fotografen verlassen oder die Authentizität des Bildmaterials anderweitig zu meiner Zufriedenheit prüfen. Das ist selbstverständlich nicht optimal, aber für den Betrachter weiter hinten in der Kette immer noch besser als gar nichts; wenn ich als Endanwender weiß, dass ein Bild von Reuters oder dpa für authentisch gehalten wurde und anschließend nur mit per CAI nachvollziehbaren Schritten bearbeitet wurde, dann ist die Chance, dass das wirklich so ist, immer noch größer, als wenn es nur aus irgendeinem Social-Media-Kanal gefischt wurde. (Die Idee ist, dass es vertrauenswürdige Listen der Zertifikate von Organisationen wie Reuters und dpa gibt, damit man als Endbenutzer prüfen kann, dass ein Bild tatsächlich von Reuters für authentisch gehalten wird und nicht von irgendwelchen hergelaufenen Heinis, die sich als “Reuters” ausgeben, Aber das ist Kram, den Web-Browser heute schon routinemäßig machen, und nichts wirklich Neues.)
Es lohnt sich sehr, die C2PA-Dokumentation zu lesen (vor allem den “Explainer”, aber auch die “Technical Specifications” und die “Security Considerations”). Der Kram ist nicht dumm ausgedacht und potenziell sogar nützlich.
Außerdem ist es wichtig, hervorzuheben, dass das Ziel von CAI nicht ist, Faktenchecks überflüssig zu machen. Das Ziel von CAI ist es, Daten zu liefern, die (zusammen mit anderen) in einen Faktencheck eingehen können, der natürlich nach wie vor gemacht werden muss – auf jeden Fall von Zeitungsredaktionen, Nachrichtenagenturen usw., aber letztlich auch von den Konsumenten der Daten (uns). Die CAI sagt ausdrücklich, dass die CAI-Daten keine Aussage über die Wahrheit oder Authentizität von Bildinhalten o.ä. zulassen (also nicht “Fake News” unmöglich machen sollen); es geht nur darum, transparent zu machen, wo ein Bild herkommt und was damit passiert ist.
Extreme long story Short: a) „You can choose to include Edits and activity, Produced by, Connected accounts, and the specific accounts connected to Content Credentials (Beta). But if you include these, you can’t hide specific pieces of data, and all of what’s attached to your content can be viewed by others on the Verify website.“ Anscheinend macht Dir das keine Sorgen. b) „For people exporting content using Content Credentials (Beta) in Adobe Photoshop, “Produced by” will refer to the chosen name associated with their Adobe ID. For non-Adobe products, “Produced by” may refer to the name of the exporter. Over time, as further CAI-enabled products are put into general use, you might see different attribution data associated with images, such as distributed storage information or editorial staff.“ Da steht also irgendwer drin, je nachdem welche Tools dafür zukünftig zur Verfügung stehen. c) Einige Kamerahersteller arbeiten seit Jahren an der Implementation von Fingerabdruckscannern. Als ich vor zwei Jahren das erste Mal davon hörte, dachte ich noch, es ginge darum, Kameraeinstellungen schnell umzuschalten. Oder dass man eben vielleicht Bilder verschlüsseln kann. d) Niemand hindert die Kamerahersteller daran, sobald es die Möglichkeit gibt den User zu tracken, dies auch zu tun. Siehe Smartphones. e) Die Redaktionen und vor allem die Agenturen entscheiden, bei wem sie welche Nachweise verlangen. Wen sie als Menschenrechtsaktivisten betrachten und wen als verdächtigen Fake-News-Lieferanten. Was genau ist damit gewonnen? Eben nur die Überwachung der freien Fotojournalisten. f) Derzeit gibt es nur eine Softwarefirma, die den „Produced by“-Tag ausfüllt: Adobe. Mit der „Adobe-ID“. Ohne Adobe-ID kein „Produced by“. Und Adobe geht nur mit Cloud-Zugriff. Jo. Es gibt Leute, die finden das alles überhaupt nicht bedenklich.
Ich weiß genau, warum ich Software verwende, die lokal arbeitet.
Ich habe die hier beschriebenen Szenarien technisch durchgespielt und bin zur Erkenntnis gelangt, dass ich Reinhard zustimmen muss: Das ganze lässt sich nur mit rosaroter Theoretikerbrille als „tolle Sache“ bezeichnen und zielt in Wirklichkeit nur darauf ab, die unbedarften Fotografen bzw. die Bearbeiter zu identifizieren und zu tracken.
Hint: Der einfachste Weg, den Mechanismus auszutricksen ist, die Kamera ein anderes hochauflösendes KI-Fake-Foto gekonnt abfotografieren zu lassen.
… Einweg-kameras, Filmkassetten(analog oder digital), mal sehen was die Zukunft zurückbringt.
Erinnert sich noch jemand an „Datensparsamkeit“ ?
Kombiniert man die oben beschriebenen Daten mit Standortinfos kann ich mir investigative Fotografie nicht mehr vorstellen.
Traurige Grüsse
tom