Languages: German, English
Country: Germany
Topics: technology and culture, human centered design, artificial intelligence, data ethics, ai ethics, ki
Examples of previous talks / appearances:
Wenn Menschen über Menschen entscheiden, beeinflussen vorgefertigte Wahrnehmungen, Stereotype, Vorurteile und erlernte Verhaltensmuster den Prozess. Um diese Biases aus der Welt zu schaffen, werden immer häufiger Entscheidungsprozesse in algorithmische Systeme ausgelagert – in dem Glauben, die „neutrale Technik“ würde objektiver und diskriminierungsfreier entscheiden können als der Mensch.
Die Realität jedoch sieht anders aus: Algorithmische Entscheidungssysteme reproduzieren sexistische, rassistische und andere diskriminierende Strukturen, die in der Gesellschaft vorherrschen – oder schaffen ganz neue Möglichkeiten der Unterdrückung und Marginalisierung. Algorithmische Entscheidungssysteme können die soziale Ungerechtigkeit verstärken, die sie eigentlich abschaffen sollten.
Wo sind die Designer*innen in diesem Prozess? Als Designer*innen gestalten wir Produkte, Services und Systeme, doch bei der Schaffung von KI-Tools kommen wir allzu oft nur ganz am Ende des Gestaltungsprozesses, bei dem Design des Interfaces, vor. Dabei sind unsere Kenntnisse im Mensch-zentrierten Gestalten, im qualitativen Erkenntnisgewinnen und im Einlassen auf andere Perspektiven eine gute Voraussetzung, um Ungerechtigkeiten anzugehen. Dafür müssen wir uns aber mit diesen Ungerechtigkeiten, mit Machtverhältnissen und Privilegien auseinandersetzen, und damit, wie sie unsere Gestaltung beeinflussen.