Der Schweizer Doktorand Bogdan Kulynych hat eine Methode entwickelt, um dies zu zeigen und wie Twitters Bildbeschneidungsalgorithmen bestimmte Gesichtszüge bevorzugen. Kulynych, der am Security and Privacy Engineering Lab der École polytechnique fédérale de Lausanne (EPFL) studiert, erhielt eine Geldprämie in Höhe von 3.500 US-Dollar.
Kurz gesagt, Kylnych fand heraus, dass die Algorithmen von Twitter feminin aussehende, junge Menschen mit hellen, warmen Hauttönen und schlanken Gesichtern beim Zuschneiden von Miniaturansichten bevorzugen.
Der erste Grund für seine Experimente waren Berichte des Doktoranden Colin Madlan. Er hatte bemerkt, dass der automatische Zuschneidealgorithmus von Twitter sein weißes Gesicht in die Mitte eines Fotos von ihm mit einem schwarzen Kollegen platzierte. Der Teil des Fotos, der seine Kollegen zeigt, wurde von der Software komplett beschnitten.
3.500 $ für den Fehlerfinder
Weitere Experimente anderer Twitter-Nutzer bestätigten: Der Algorithmus zeigt rassistische Tendenzen. Nicht immer gleich, denn in einem anderen Experiment bevorzugte er schwarze Gesichter. Twitter kündigte an, das Problem weiter zu untersuchen und möchte den Algorithmus verbessern. Ein bisschen später Das Unternehmen hat das automatische Zuschneiden von Bildern deaktiviert.
Als wäre das nicht genug, hat es auch versprochen eine Belohnung von 3.500 $ für diejenigen, die versuchen, neue Wege zu finden, um zu zeigen, wie die künstliche Intelligenz von Twitter bestimmte Personengruppen versehentlich diskriminiert. Diese Auszeichnung wurde Kylnych nun auf der DEF CON IT Security Conference in Las Vegas überreicht.
Die Ursache des Problems ist die Voreingenommenheit der Entwickler
Die Ergebnisse der Forscher würden zeigen, wie sich die Voreingenommenheit der Personen, die die Daten ausgewählt haben, auf denen der Algorithmus trainiert wurde, auf die Ergebnisse auswirkt. sagte der KI-Experte Ariel Herbert-Vossdie als Jurymitglied an der Preisverleihung teilgenommen haben. Sie hofft, dass „mehr Unternehmen, die algorithmenbasierte Produkte entwickeln, den Wert von Produktfeedback auf diese Weise verstehen und auf diesem Ansatz aufbauen.“ sie schrieb auf Twitter.
Bogdan Kulynych selbst schreibt in seiner Publikation: Die Voreingenommenheit der Algorithmen „könnte zum Ausschluss von Minderheiten und zur Aufrechterhaltung stereotyper Schönheitsstandards in Tausenden von Bildern führen“.
Er lobte den ungewöhnlichen Wettbewerb von Twitter als etwas, das es nachzuahmen gilt. Wenn solche Wettbewerbe so regelmäßig abgehalten würden wie solche, bei denen Experten nach Sicherheitslücken suchen, „würde Software nicht jahrelang herumliegen, bis endlich Beweise für den Schaden vorliegen, den sie verursacht hat“.