Rassismus

In der Informatik gibt es ein Sprichwort: Müll rein, Müll raus. Wenn wir Maschinen mit Daten füttern, die unsere Vorurteile widerspiegeln, ahmen sie diese nach, von antisemitischen Chatbots bis hin zu rassistisch voreingenommener Software. Wartet eine schreckliche Zukunft auf Menschen, die gezwungen sind, den Algorithmen ausgeliefert zu sein?

Joy Buolamwini, MIT-Wissenschaftlerin und Gründerin der Algorithmic Justice League, veröffentlichte eine Studie, in der große geschlechtsspezifische und rassistische Vorurteile in KI- Systemen aufgedeckt wurden, die von Technologiegiganten wie IBM, Microsoft und Amazon verkauft werden. Angesichts der Aufgabe, das Geschlecht eines Gesichts zu erraten, schnitten alle Unternehmen bei männlichen Gesichtern wesentlich besser ab als bei weiblichen. Die Fehlerraten betrugen bei hellhäutigen Männern nicht mehr als 1%, während sie bei dunkelhäutigen Frauen auf 35% anstiegen.

Diese Technologien durchdringen heute jede Schicht der Gesellschaft. Entscheidungen wie die Feststellung, wer eingestellt, entlassen wird, wem ein Darlehen gewährt wird oder wie lange eine Person im Gefängnis verbringt, wurden traditionell von Menschen getroffen. Heutzutage werden sie schnell durch Algorithmen erstellt, oder zumindest werden Algorithmen im Entscheidungsprozess für solche Aufgaben verwendet.

Selbst wenn KI-Systeme aus genauen, repräsentativen Daten lernen, kann es dennoch zu Problemen kommen, wenn diese Informationen die zugrunde liegenden Vorurteile und Ungleichheiten im Gesundheitssystem widerspiegeln.

Alle Themen

andere themen