Selfies als Gefahr? Adam Harvey: Face First

Im EIGEN + ART Lab in Berlin zeigt der Künstler und Forscher Adam Harvey verschiedene Arbeiten, die sich mit Datensätzen zur Gesichtserkennung beschäftigen.

Im EIGEN + ART Lab zeigt Künstler und Forscher Adam Harvey Arbeiten, die sich mit Datensätzen zur Gesichtserkennung beschäftigen.

[Ausstellung] Wie viel Privatsphäre ist für Internetnutzer überhaupt noch möglich? Welche Konsequenzen kann Überwachung im öffentlichen Raum haben? Und was passiert mit unseren Daten, die wir online teilen? Mit diesen Fragen befasst sich der Künstler und Forscher Adam Harvey, sowohl in seiner künstlerischen, als auch in seiner wissenschaftlichen Arbeit. In seiner ersten Einzelausstellung „Face First. Researchers Gone Wild“ im EIGEN + ART Lab in Berlin zeigt Harvey aktuell eine neue Installation und Werke, die sich mit Übungs-Datensätze zur Gesichtserkennung beschäftigen. Basis für seine Arbeiten sind die Ergebnisse seiner langjährigen Recherche im Rahmen des von ihm und Jules LaPlace initiierten „MegaPixels“-Projekts.


„I hope that nobody posts a selfie on Instagram, or at least thinking twice about what they are doing, and how much data you are sharing with both the social media platform, with researchers, with advertisers, with people that you will never meet and have no idea what intentions they have.“

Adam Harvey: Computer Vision & Überwachung – TINCON Berlin 2017

Die Gefahren der Gesichtserkennung

Schnell ein lustiges Selfie bei Instagram posten oder gleich ein Bild mit der ganzen Familie bei Facebook hochladen – fast jeder Social-Media-Nutzer hat das schon einmal getan oder tut es vielleicht sogar seit vielen Jahren regelmäßig. Doch was einem selbst als harmlose Handlung erscheint, hat für große Technologie-Unternehmen einen hohen Wert. Die Bilder enthalten eine Vielzahl an Daten, die sich mit anderen Daten aus unseren Social-Media- und Internet-Aktivitäten zu personenbezogenen Profilen zusammenfügen lassen. Die Profile sind wertvoll – für die Forschung, für Werbung und für die Geschäftsmodelle von Konzernen, die man als Nutzer gar nicht überblicken kann.

In der Ausstellung „Face First. Researchers Gone Wild“ beschäftigt sich Adam Harvey mit den Datenquellen für Systeme Künstlicher Intelligenz (KI), die uneingeschränkt und ohne Zustimmung der betroffenen Personen generiert wurden. Seit im Jahr 2007 mit der Erstellung des Datensatzes „Labeled Faces in the Wild“ begonnen wurde, scheint die Praxis des Sammelns von Bildern in „freier Wildbahn“ bis heute fast selbstverständlich geworden zu sein. Doch dieses Vorgehen ist nach wie vor sehr problematisch, denn es unterliegt keinerlei Regulierung zum Schutz der Menschen, deren Bilder hier genutzt werden. Zahlreiche Trainings-Datensätze mit Millionen von Bildern und Identitäten werden in industrielle Systeme zur Gesichtserkennung eingespeist, ohne dass die Betroffenen davon wissen oder etwas dagegen tun könnten. Was einmal online gestellt wurde, entzieht sich der eigenen Kontrolle.

Genau darum geht es in „Face First. Researchers Gone Wild“. Adam Harvey gibt hier einen Einblick in die Ergebnisse seiner Forschung aus dem auf mehrere Jahre angelegten Projekt „MegaPixels“, das sich mit eben solchen Traings-Datensätzen zur Gesichtserkennung befasst, die „in the wild“ zusammengetragen wurden.


Unkontrollierte Datensätze

Neuronale Netzwerke trainieren anhand von Bilddatensätze ihre Fähigkeiten zur Gesichtserkennung. Je größer die Menge der Bilder in diesen Datensätzen ist und je größer die Vielfalt an Lichtverhältnissen, Perspektiven und Ausschnitten ist, um so zuverlässiger können die Algorithmen die biometrischen Merkmale eines Gesichts erfassen und auswerten. Zur Erstellung dieser Datensätze werden deshalb alle möglichen Bilder aus dem Netz gesammelt: hochgeladene Selfies und Profilbilder von Social-Media-Accounts oder Bilder von Personen aus den Medien. Das Problematische an diesen Bilddatensätzen ist, dass nicht transparent ist, geschweige denn reguliert wird, wo und wie diese Datensätze genutzt werden oder wer auf sie zugreifen kann.

Deshalb untersuchen die Künstler Adam Harvey und Jules LaPlace in ihrem Kunst- und Forschungsprojekt „MegaPixels“ die Hintergründe und Mechanismen verschiedener Datenbanken zur Gesichtserkennung. Im Fokus stehen die enthaltenen Bilder, die Motivation ihrer Aufnahme sowie die finanzielle Unterstützung der Datenerhebung. Die Ergebnisse ihrer Forschung veröffentlichen sie online, was – ähnlich wie beim 2019 gestarteten Kunst-Projekt „ImageNet Roulette“ des Künstlers Trevor Paglen und der KI-Forscherin Kate Crawford – bereits Folgen nach sich zog. Harvey und LaPlace konnten mit „MegaPixels“ u.a. erreichen, dass drei Trainings-Datensätze zur Gesichtserkennung beendet wurden, dass ein Wissenschaftler, der mit diesen Datensätzen arbeitete, sich entschuldigte, und dass das Thema mediale Berichterstattung erfuhr. So titelte die New York Times „Facial Recognition Tech Is Growing Stronger, Thanks to Your Face“ und die Financial Times fragte „Who’s Using Your Face? The Ugly Truth About Facal Recognition“ mit Verweis auf die Arbeit von Harvey und LaPlace.


Face First. Researchers Gone Wild

In seiner ersten Einzelausstellung „Face First: Researchers Gone Wild“ im EIGEN + ART Lab in Berlin zeigt Adam Harvey Arbeiten, die auf den Ergebnissen seiner Recherche im Rahmen von „MegaPixels“ basieren. Im Zentrum stehen Fragen wie: Was ist die Zukunft unserer Bilder im Netz? Wer hat die Kontrolle über die Fotos und die daraus erstellten Datensets? Und wer darf sie nutzen und archivieren?

Adam Harvey macht in seinen Arbeiten nicht nur deutlich, wie unsere Bilder in zahlreichen Datensätzen zirkulieren, wie sie von der Wissenschaft verarbeitet, archiviert und in Forschungspapers zitiert werden. Er zeigt auch, wie sich Strafverfolgungsbehörden, Militäreinrichtungen, Regierungen, Technologie-Unternehmen und andere Akteure Zugang zu diesen Datensets verschaffen – teils legal, aber oft auch illegal.

Die dokumentarischen Serien „Datageist: Duke MTMC“ und „Datageist: Brainwash“ zeigen auf den ersten Blick Aufnahmen von Überwachungskameras, die auf dem Campus der Standford University und der Duke University entstanden. Harvey fügt den Bildern in seinen Arbeiten eine Wärmeflusskarte hinzu, durch die „aktivierte Bereiche“ erkennbar werden, an denen sich auf den Originalbildern Personen und Gruppen befanden. Das Bedenkliche daran: Der Künstler zeigt auf, dass die Bilder im System der Datennutzung weiter zirkulieren und mehrfach archiviert wurden – obwohl die zugehörigen Datensätze von den Universitäten eigentlich entfernt wurden.

In der Installation „Research Cameos“ laufen auf acht LED-Displays die Namen von Prominenten und Personen des öffentlichen Lebens, die in Trainings-Datenbanken zur Gesichtserkennung vorkommen. Die Arbeit basiert auf „Microsoft Celeb“ (MS-Celeb-1M), einer Datenbank mit 10 Mio. Bildern, die aus dem Netz zur Entwicklung von Technologien zur Gesichtserkennung gesammelt wurden. Die Mehrheit der Personen in diesem Datensatz sind amerikanische und britische Stars, doch es sind auch Bilder von Personen enthalten, die aus beruflichen Gründen auf eine Online-Präsenz angewiesen sind. So wie im Internet Bilder von berühmten Persönlichkeiten immer wieder flüchtig auftauchen, so erscheinen auch in der Installation „Research Cameos“ Namen prominenter Persönlichkeiten. Bei Personen des öffentlichen Lebens scheint die Nutzung ihrer Bilder rein rechtlich zulässig. Doch es geht in den daraus erstellten Datensätzen nicht um die Personen selbst, sondern nur um die Vielfalt an Gesichtern, anhand derer Algorithmen zur Gesichtserkennung trainiert werden können.

Mit „Face First. Researchers Gone Wild“ regt Adam Harvey zum Nachdenken darüber an, wie jeder von uns durch die Nutzung des Internets dazu beiträgt, dass Datensätze erstellt werden, die wiederum eine Technologie ermöglichen, mit der wir überwacht werden können. So ermöglicht jedes ins Netz hochgeladene Selfie, dass Konzerne ein biometrisches Profil von uns erstellen – ohne dass wir davon erfahren.


„If you knew that your image, your friend’s image, or your child’s image was being used for developing products in the defense industry, would you object?“

Adam Harvey

Mehr über Adam Harvey

Adam Harvey ist Absolvent des „Interactive Telecommunications Program“ an der New York University und studierte zuvor Ingenieurwesen und Fotojournalismus an der Pennsylvania State University. Zu seinen früheren Projekten zum Thema Überwachung gehören die Arbeit „CV Dazzle“, die sich mit der Tarnung vor Gesichtserkennung befasst, oder die „Anti-Drone Burqa“, eine Tarnung vor Wärmebildkameras. Zu seinen aktuellen Arbeiten gehört „MegaPixels“, ein Kunst- und Forschungsprojekt, das sich mit der Ethik, den Ursprüngen und den Auswirkungen auf die Privatsphäre von Bilddatensätzen zur Gesichtserkennung befasst. Auch ihre Bedeutung in Zusammenhang mit der Verbreitung biometrischer Überwachungstechnologien spielt hier eine Rolle.

Aktuell ist Adam Harvey als wissenschaftlicher Mitarbeiter am Programm „Künstliche Intelligenz und Medienphilosophie“ an der Hochschule für Gestaltung Karlsruhe sowie als Digital Fellow am Weizenbaum Institut in Berlin tätig. Er ist zudem Fellow bei „Rapid Response for a Better Digital Future“ bei Eyebeam.


Adam Harvey: Face First. Researchers Gone Wild

EIGEN + ART Lab, Berlin
27.08. – 19.09.2020


Header-Bild: Text nach einer Arbeit von Adam Harvey


Wir brauchen deine Unterstützung

Werde jetzt Mitglied im musermeku Freundeskreis: Erhalte wöchentlich News zu Kunst und Kultur direkt per E-Mail, sichere dir den Zugang zu exklusiven Inhalten und hilf uns dabei, unsere Betriebskosten für musermeku.org zu decken.


Angelika Schoder

Über die Autorin

Bei musermeku schreibt Dr. Angelika Schoder über Themen zur Digitalisierung, über Museen und Ausstellungen sowie über Reise- und Kultur-Tipps.

Bei LinkedIn vernetzen


Linktipps


Der Newsletter zu Kunst & Kultur

In unserem kostenlosen Newsletter informieren wir einmal im Monat über aktuelle Neuigkeiten aus dem Kunst- und Kulturbereich.


|

, |