#CODES & NARRATIVE

Stefanie Roenneke
Freie Autorin & Journalistin
02.08.2022 | Lesezeit: 3 Minuten

CHANGING CULTURES MAGAZIN > CODES & NARRATIVE > Kritischere Beziehung zu intelligenter Technik

Eine kritischere Beziehung zu intelligenter Technik

Google hat die Kamerafunktion „Real Tone“ eingeführt. Dadurch sollen nicht nur bessere Fotos entstehen, diese Innovation kann auch zum Nachdenken anregen – über Funktionsweisen von intelligenter Technik und unserem Umgang damit.

 

Im Oktober 2021 brachte Google die neue Smartphone-Generation Pixel 6 und Pixel 6 Pro auf den Markt. Mit diesem Gerät wurde auch die Kamerafunktion „Real Tone“ eingeführt, wodurch Pixel 6 nun „[t]he worlds most inclusive camera“ beinhalte: „With Pixel 6, we vastly improved our camera tuning models and algorithms to more accurately highlight the nuances of diverse skin tones“. Dieses Versprechen beinhaltet unter anderem, dass die Gesichtserkennung verbessert wurde und nun Gesichter sämtlicher Hautfarben von der Kamera erkannt würden. Ebenso verbessert wurden die automatische Weißabstimmung, wodurch dunkle Hauttöne nicht unnatürlich aufgehellt werden, sowie der Algorithmus für schlechte Lichtverhältnisse oder ungünstigen Lichteinfall, der in jeder Situation für natürlich aussehende Porträts sorgen soll.

Mit „Real Tone“ verweist Google auf den Umstand, dass bildgebende Techniken und Verfahren, wie Filmemulsionen, Kameras, aber auch Software und KI-basierte Algorithmen bis heute People of Colour benachteiligen. Um das historisch zu verdeutlichen, wird in diesem Kontext oftmals auf die sogenannten „Shirley Cards“ verwiesen.

Diese insbesondere auf dem nordamerikanischen Markt einflussreichen Farbreferenzkarten, wurden seit den 1940er Jahren für den Hautfarbabgleich beim Fotodruck verwendet. Bis in die 1990er-Jahre hinein bildete diese Karte, die in einer Zeit der Rassentrennung entstanden ist, vornehmlich weiße und weibliche Gesichter ab. Trotz dessen und verbesserter Farbfilme hätten sich diese mit Vorurteilen behaftete Farbkalibrierung auch in der Digitaltechnik manifestiert, wie Sarah Lewis in dem Beitrag "The Racial Bias Built Into Photography" für die New York Times festhält. Als ein viel debattiertes Beispiel für diese technische sowie gesellschaftliche Herausforderung, kann die Diskussion um das Vogue-Cover mit der Sportlerin Simone Biles im August 2020 gelten. Es wurde die Inszenierung des Hauttons kritisiert, als auch die Beauftragung von Annie Leibovitz als weiß gelesene Fotografin.

ANWENDUNGEN KÜNSTLICHER INTELLIGENZ
SIND KEINE OBJEKTIVEN TOOLS

In Anwendungen mit künstlicher Intelligenz schlägt sich folglich eine „algorithmische Voreingenommenheit“ nieder. Im englisch-sprachigen Raum wird dieses Phänomen unter dem Begriff „racial bias“ oder „algorithmic bias“ diskutiert. Damit wird deutlich gemacht, dass Algorithmen der künstlichen Intelligenz, die selbstredend weit über das Feld der Fotografie hinaus eingesetzt werden, in keinem luftleeren Raum existieren. Ihre Daten-grundlagen und Zuordnungen sind in eine Gesellschaft und deren Geschichte eingebettet und spiegeln diese wider: „Beim Testen und Trainieren von Algorithmen werden Daten aus der Vergangenheit verwendet. Damit werden bestehende und veraltete hegemoniale Macht- und Entscheidungsstrukturen, Werte, Normen und Vorurteile aus der Gesellschaft direkt in die Algorithmen übertragen“, unterstreicht AlgorithmWatch. Deutlich werde das an wiederkehrenden Fehlern insbesondere bei der Gesichtserkennung, die am besten bei weißen Männern funktioniere. Ein ‚intelligentes Programm‘ ist demnach immer nur so ‚gut‘, wie die Intention dahinter und wie ausgewogen der Datensatz ist, mit dem gearbeitet wird. Ein Phänomen wie „algorithmic bias“ unterstreicht, dass gesellschaftliche Entwicklungen auch mit den verwendeten Techniken gedacht werden müssen. Das kann unter anderem eine Programmierethik und einen kritischen Umgang mit der eingesetzten Technik umfassen sowie die Schärfung des Bewusstseins dafür, dass diese nicht neutral ist.

 

Google, ein Konzern, das in der Vergangenheit mit fehlerhafter Bilderkennung bei Google Photos in der Kritik stand, stuft „Real Tone“ lediglich als Verbesserung seiner Kamerasysteme ein und nicht als endgültige Lösung. Das Versprechen der Natürlichkeit soll für eine authentische Wiedergabe von Hauttönen sorgen. Damit steht die Funktion auch dem Einsatz von gleichmacherischen Beautyfiltern und verzerrenden Effekten in den sozialen Medien gegenüber. Offen bleibt die Frage, welchen weiteren Nutzen immer bessere Fotos haben, die eben nicht nur zum Einfangen privater Erinnerungen oder zur Selbstinszenierung in den sozialen Medien genutzt werden. Denn sie fließen auch in einen globalen Bilderstrom ein, der wiederum von Algorithmen ausgewertet wird. Da diese intransparent sind, wie von verschiedenen Initiativen angemahnt wird, bleiben ihre Funktionsweisen außerhalb der Anbieter ein Geheimnis. Eine optimierte Kamera kann bessere Ergebnisse liefern, die in sozialen Medien jedoch auch missbraucht sowie nach unbekannten Kriterien bevorzugt oder unterdrückt werden können.

 

Autorin: Stefanie Roenneke

Stefanie Roenneke ist promovierte Literaturwissenschaftlerin. Sie arbeitet als freiberufliche Autorin und Redakteurin und setzt sich mit Literatur, kulturellen Entwicklungen sowie zeitgenössischer Ästhetik und Design auseinander. Seit 2012 schreibt sie für STURMundDRANG.

Bildreferenzen: Header | Hands | Skin | Selfie | Men

CHANGING CULTURES MAGAZIN

Ähnliche Artikel

ZUR ÜBERSICHT