Sehen heißt zweifeln: Wiederherstellung des Vertrauens im Zeitalter der KI

Veröffentlicht: 2024-06-16

Das alte Mantra lautet: „Ich glaube es, wenn ich es sehe“ , und bei der heutigen Technologie stellt sich jeder eine ganz andere Frage. Kann ich glauben, was ich sehe?

Veränderte Bilder und Deepfakes sind einfacher als je zuvor. In manchen Fällen steht nur wenig auf dem Spiel. Papst Franziskus im Puffmantel? Das ist nur ein harmloser KI-Trick.

Das offensichtlich manipulierte Foto von Kate Middleton führte zu einer Welle von Gerüchten und anhaltenden Fehlinformationen, aber der Schaden war relativ gering und betraf nur wenige außerhalb der britischen Königsfamilie.

Wesentlich höher war der Einsatz in Indien, wo den Wählern mit Zwangsernährung sanktionierte Deepfakes von politischen Kandidaten eingeflößt wurden – mehr als 50 Millionen davon laut WIRED im Vorfeld der jüngsten Wahl.

In diesem Jahr wird fast die Hälfte der Weltbevölkerung an den Urnen teilnehmen, um an Wahlen teilzunehmen, und visuelle Medien werden bei ihrer Entscheidungsfindung eine übergroße Rolle spielen.

Die Herausforderung, authentische Bilder von gefälschten Bildern zu unterscheiden, ist von großer Bedeutung.

Manipulierte oder gefälschte Wahlkampffotos, Reden, Interviews und politische Anzeigen drohen den demokratischen Prozess selbst zu untergraben, indem sie die öffentliche Wahrnehmung der Wahrheit untergraben.

Bei der Wahl der politischen Führung ist die Öffentlichkeit auf den Zugang zu sachlichen Informationen angewiesen.

Dennoch braut sich ein perfekter Sturm zusammen – ein rasanter technologischer Fortschritt gepaart mit der viralen Verbreitung von Fehlinformationen und wachsendem Misstrauen gegenüber Institutionen. Es ist eine gefährliche Mischung, die eine informierte Bürgerbeteiligung gefährdet.

Da das Bewusstsein der breiten Öffentlichkeit für KI-manipulierte Bilder weiter wächst, wächst auch die Sorge, dass es immer schwieriger wird, Fakten von Fiktionen zu unterscheiden. Um die beiden zu trennen, ist eine technische Kompetenz erforderlich, über die nur wenige verfügen.

Eine pixeltiefe Ansicht

Nahaufnahme einer Kamera, die eine Stadtszene bei Nacht aufnimmt.
Bild: Pexels

15 Jahre lang habe ich an Digitalkameras gearbeitet – von der Entwicklung ihrer Firmware bis hin zum Entwurf der Software, mit der sie angezeigt werden können. Es gibt kein „unverändertes“ Bild.

Ob es sich um einen Sensor in der Kamera, eine Nachbearbeitungssoftware oder eine KI-Engine handelt, irgendwo verändert etwas das Bild.

Menschen sind schlecht darin, ihre Spuren zu verwischen – sie hinterlassen immer Spuren, wenn sie Bilder manuell nachbearbeiten.

Zoomen Sie nah genug an das Cover einer Zeitschrift heran, können Sie leicht erkennen, wo und wie ein Bild „verbessert“ wurde. KI-Engines sind noch so jung, dass ihre Änderungen erkennbar sind, aber das wird nicht lange der Fall sein.

Wir sind sehr nahe an dem Punkt angelangt, an dem „echte“ und „gefälschte“ Bilder nicht mehr zu unterscheiden sind, weil Nachbearbeitungsänderungen und die Bildverarbeitung vor der Kamera zu ähnlich aussehen.

Egal wie weit ein Experte hineinzoomt, er wird keine Anzeichen dafür finden, dass ein Bild verändert wurde, nachdem es die Kamera verlassen hat.

An diesem Punkt besteht die einzige Möglichkeit, den Unterschied zwischen echten und gefälschten Bildern zu erkennen, darin, das Bild durch seine gesamte Aufbewahrungskette bis zu der Kamera zurückzuverfolgen, die es aufgenommen hat. Eine Analyse des Bildes selbst hilft nicht mehr.

Authentizität überprüfen

Bearbeiten von Landschaftsfotos auf dem Computerbildschirm.
Bild: Pixabay

Technische Lösungen könnten helfen, die Verbreitung von Deepfakes und KI-synthetisierten Medien zu bewältigen, und einige große Technologieunternehmen haben bereits Schritte zu deren Umsetzung unternommen.

OpenAI hat versprochen, Metadaten der Coalition for Content Provenance and Authenticity (C2PA), einen offenen technischen Standard, der auch von Kameraherstellern verwendet wird, in die von DALL·E 3 erstellten Bilder einzubeziehen.

Meta arbeitet auch daran, KI-generierte Bilder mithilfe des C2PA-Standards zu kennzeichnen.

Digitalkameras können auch so programmiert werden, dass sie diesen Code in die Metadaten jedes Bildes aufnehmen und ihn so überprüfbar machen.

Beispielsweise kann eine Prüfsumme des Bildes mit einem privaten Schlüssel verschlüsselt werden, über den nur der Kamerahersteller verfügt und der von jedem in der Öffentlichkeit überprüft werden kann (oder über Websites von Drittanbietern wie Content Credentials Verify, die TikTok Berichten zufolge verwenden möchte). .

Jeder Hersteller von Digitalkameras müsste seinen Code einem Audit unterziehen, um sicherzustellen, dass er keine Änderungen vornimmt, die als inakzeptabel gelten würden.

Jede Person, die eine Nachbearbeitung durchführt, müsste dem Bild zusätzliche Metadaten hinzufügen, die die genauen Änderungen zeigen. Das Originalbild müsste in der Datei enthalten sein.

Jedes Bild, das diesen Standards nicht entspricht, kann als Fälschung gelten. Dazu gehören auf Papier gedruckte Bilder und Screenshots.

Mit der Zeit wird die Gesellschaft lernen, dass die meisten Bilder wie Gemälde sind – manchmal stellen sie reale Ereignisse dar, meistens jedoch nicht, es sei denn, es gibt zusätzliche Beweise, die ihre Authentizität bestätigen.

Hinterfragen, was wir glauben

Pope Deepfakes trägt eine weiße Steppjacke und eine weiße Schädeldecke.
Bild: KI generiert

Es wäre nicht einfach, aber die Technologie schreitet so schnell voran, dass zusätzliche Schritte erforderlich sind, um die Authentizität nachzuweisen. Diejenigen, die an der Wahrheitsfindung interessiert sind, wie Journalisten und Richter, müssten bei der Prüfung von Beweisen besondere Vorsicht walten lassen.

Vor einem Jahrhundert herrschte vor Gericht die Aussage von Augenzeugen vor. Damals versprachen Innovationen wie Audioaufzeichnungen, Fingerabdrücke und fotografische Beweise Glaubwürdigkeit, obwohl Fingerabdruckanalysen immer noch die Validierung einer Beweiskette erforderten.

Die Nationale Akademie der Wissenschaften hat diese Standards nun in Frage gestellt – Fingerabdrücke und Ballistik stoßen erneut auf Zweifel an der Genauigkeit.

Mit der fortschreitenden KI verlieren auch Fotos und Videos an Zuverlässigkeit. Der Weg nach vorne erfordert die Zusammenarbeit zwischen Technologieinnovatoren, Wahrheitssuchern und der Öffentlichkeit.

Die Implementierung standardisierter Authentifizierungsrahmen, die Betonung der Transparenz und das Überdenken der Annahmen zur Bildauthentizität sind allesamt unerlässlich.

Mit Wachsamkeit und kollektiver Verantwortung können wir daran arbeiten, das Vertrauen zu bewahren, dass Sehen Glauben bedeutet.

Mann in einem schwarzen Hemd freut sich.

Anmerkung des Herausgebers: Dieser Artikel wurde von Alex Fink, CEO und Gründer von Otherweb, verfasst. Alex ist Tech Executive und Gründer und CEO von Otherweb, einer gemeinnützigen Organisation, die KI einsetzt, um Menschen dabei zu helfen, Nachrichten und Kommentare zu lesen, Podcasts anzuhören und das Internet zu durchsuchen, ohne Paywalls, Clickbait, Werbung oder anderen „Müll“. Inhalt. Otherweb ist als iOS- oder Android-App, als Website, als Newsletter oder als eigenständige Browsererweiterung verfügbar. Vor Otherweb war Alex Gründer und CEO von Panopteo sowie Mitbegründer und Vorsitzender von Swarmer.

Was denken Sie über diese Technologie? Schreiben Sie uns unten in die Kommentare oder tragen Sie die Diskussion auf Twitter oder Facebook weiter.

Empfehlungen der Redaktion:

  • KI-Deepfakes feiern mit Bidens Robocall ihr politisches Debüt
  • Der Suchalgorithmus von Google betrachtet Deepfake-Pornos als hilfreichen Inhalt
  • Was ist Deepfake-Porno?
  • Hat Bruce Willis seine Bildrechte an ein Deepfake-Unternehmen verkauft?

Folgen Sie uns auf Flipboard, Google News oder Apple News