Kann ich meine Inhalte vor KI-Manipulation schützen?


KI-Manipulation

Mit der künstlichen Intelligenz haben sich schnell auch per KI manipulierte Bilder und weitere Inhalte verbreitet. Deepfakes werden immer authentischer und täuschen selbst nahe Angehörige. Und auch normale, hilfreiche KI-Tools wie ChatGPT bedienen sich als Quelle an urheberrechtgeschützten Inhalten. Ist es also möglich – ob als Unternehmer:in oder Privatperson – die eigenen Bilder und Inhalte vor der Nutzung durch künstliche Intelligenz und vor allem vor KI-Manipulation  zu schützen? Wir gehen dem Thema auf den Grund.

KI-Tools gibt es heute viele: Text-KIs wie ChatGPT, Bild- und Videogeneratoren wie Midjourney, DALL-E, Sora oder Dream Machine erfreuen sich steigender Beliebtheit und ihre Ergebnisse werden von Tag zu Tag besser, heißt authentischer. Sie alle leben vom Input von Daten. Zunächst zu Trainingszwecken mit ausgewählten Daten gefüttert, nutzen sie heute alle frei zugänglichen Daten im Internet. Und damit auch eigentlich datenrechtlich geschützte Bilder auf Websites, Fotografien, Grafiken oder Texte. Diese können sie nutzen, um aus den enthaltenen Informationen neue Inhalte zu generieren, jedoch auch, um künstlerische Stile zu kopieren oder die Bilder einfach zu verändern und Menschen so zum Beispiel in Situationen darzustellen, in denen sie nie waren. Das kann nicht nur für die direkt betroffenen Menschen eine furchtbare Situation sein, sondern auch für andere, wenn die Deepfakes etwa in der Cyber-Kriminalität eingesetzt werden. Als Reaktion auf die Problematik der KI-Manipulation gibt es nun allerdings die ersten vielversprechenden Lösungen.

Lies mehr über Daten- und Persönlichkeitsschutz im Netz auf unserem Partnerportal cyberriskmanager.de.

Software gegen Web-Scraping

Um Dir die perfekte Antwort in Form eines Textes oder Bildes anzubieten, recherchieren KI-Programme wie ChatGPT im Internet und nutzen dort gefundene Texte und Bilder als Informationsquellen. Diese werden ungefragt und ohne Gebühren genutzt und im Zweifel sogar deren Stil für die Erzeugung neuer Inhalte kopiert. Ein enormes rechtliches und ethisches Problem, vor allem für die kreative Branche, von Fotograf:innen und (Grafik-)Designer:innen bis zu Autor:innen.

Diese Herausforderung bringt Entwickler:innen auf den Plan, deren Lösungen zum Beispiel Bilder online vor der KI verstecken können. Zwei solcher Programme sind Glaze und Nightshade, welche vor Kurzem an der Universität von Chicago begründet wurden. Sie verändern Bilder auf eine für den Menschen nicht sichtbare Weise. Denn im Gegensatz zu uns blickt die KI auf die Datei selbst, nicht auf die zweidimensionale Darstellung. Durch eine weitere Dimension, einen geänderten Stil oder angepasste Elemente kann die Software die KI ablenken oder stören. Auf einem Bild einer Kuh zum Beispiel, erkennt die KI durch Nightshade etwa einen Tisch, während sie durch Glaze keinen Stil ausmachen und so auch nicht erlernen und wiedergeben kann. Glaze wie auch Nightshade können auf ihren jeweiligen Projektwebsite der Universität Chicago kostenlos heruntergeladen werden. Die Entwickler:innen planen, Nightshade darin zu integrieren und so von den Fähigkeiten beider Modelle zu profitieren.

Die Lösungen sind wie viele andere noch in ihrer Entwicklungsphase und funktionieren je nach Fall unterschiedlich gut, die Technologie an sich ist jedoch vielversprechend und offensichtlich aktuell notwendig. Denn die Gesetzgebung hinkt der technischen Entwicklung weit hinterher. So findet sich in naher Zukunft sicher auch eine schnellere Lösung, als in einem weiteren Schritt beim Upload von Bildern, diese erst noch von einem Werkzeug bearbeiten zu lassen.

KI-Manipulation von Bildern stoppen mit PhotoGuard

Auch am MIT befassen sich Entwickler:innen mit dem Schutz von Bildmaterial vor der Manipulation durch KI. Sie haben das Tool PhotoGuard entwickelt, welches Bilder so verändert, dass sie nach der Bearbeitung durch eine KI unrealistisch erscheinen und so als KI-generiert erkennbar sind.

Um das umzusetzen, werden zwei verschiedene Techniken benutzt: ein Encoder- und ein Diffusionsangriff. Ersterer fügt einem Bild nicht wahrnehmbare Signale hinzu, sodass eine KI den Bildinhalt als etwas anderes interpretiert – etwa einen Menschen als einen grauen Block. So weiß sie nicht, was sie im Bild bearbeiten soll. Die zweite Technik verändert die eigentliche Verarbeitung des Bildes durch die KI. Hier sind die Ergebnisse noch deutlicher und die KI-manipulierten Bilder weniger nutzbar. Der Code für PhotoGuard wurde auf github veröffentlicht und kann theoretisch auf alle neu hochgeladenen Bilder angewendet werden. Bisher funktioniert der Schutz allerdings nur beim Modell Stable Diffusion wirklich zuverlässig. Zudem ist der Aufwand, jedes hochgeladene Bild erst mit dem PhotoGuard zu bearbeiten, enorm hoch. Hier wird es Zeit, dass zum Beispiel die Social Media Plattformen reagieren und einen solchen Schutz vor KI-Manipulation von vornherein für alle dort hochgeladenen Fotos anbieten.

PhotoGuard sorgt dafür, dass die Manipulation durch KI schnell ersichtlich ist. (Bildquelle: MIT CSAIL )

GPTBot von der Website aussperren

Es muss nicht immer eine separate Software sein, in manchen Fällen reicht es schon aus, den KI-Bot über robot.txt auszusperren. Dies ist eine Datei, die zu einer Website gehört und dort den Crawling-Traffic verwaltet. Sie kann verhindern, dass Bild-, Video- und Audiodateien in den Google-Suchergebnissen angezeigt werden. Ist eine solche Datei für Deine Website vorhanden (einfach überprüfbar, indem Du „/robots.txt“ an die url Deiner Website anfügst), reicht das Hinzufügen weniger Zeilen, um den GPTBot fernzuhalten.

Folgendes Beispiel hält den Bot davon ab, Deiner Website zu folgen:

User-agent: GPTBot

Disallow: /

Außerdem ließen sich einzelne Verzeichnisse, Dokumente oder Dateien vom Crawling durch den Bot ausschließen. Nicht alle Crawler halten sich allerdings an die Vorgaben der robots.txt, vor allem nicht jene mit dubiosen Motiven.

Erste Schritte gegen KI-Manipulation

Die genannten Lösungen gegen die KI-Manipulation von Bildern und anderen Inhalten sind erst der erste Schritt, doch wie sich zeigt, ein unbedingt notwendiger. Noch ist die Verwendung der Tools vor allem für Privatpersonen meist zu aufwendig und auch nicht immer zuverlässig. Die neuen Entwicklungen zeigen aber, dass ein Schutz vor der Verwendung und Bearbeitung von Inhalten durch künstliche Intelligenz möglich ist. Nun sollten große Plattformen dafür sorgen, dass dieser Schutz bei jedem Foto-Upload von Beginn an integriert ist.

Bildquellen

Previous So gelingt das E-Mail-Marketing während der Urlaubszeit
Next KI im Unternehmensalltag: 5 Use Cases

No Comment

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

zehn + 12 =