Show all women speakers >>

Nushin Isabelle Yazdani

technologie

My topics:

technology and culture human centered design artificial intelligence data ethics ai ethics ki

My languages:

German English

My country:

Germany

Examples of previous talks / appearances:

KI & Ethik

Wenn Menschen über Menschen entscheiden, beeinflussen vorgefertigte Wahrnehmungen, Stereotype, Vorurteile und erlernte Verhaltensmuster den Prozess. Um diese Biases aus der Welt zu schaffen, werden immer häufiger Entscheidungsprozesse in algorithmische Systeme ausgelagert – in dem Glauben, die „neutrale Technik“ würde objektiver und diskriminierungsfreier entscheiden können als der Mensch.

Die Realität jedoch sieht anders aus: Algorithmische Entscheidungssysteme reproduzieren sexistische, rassistische und andere diskriminierende Strukturen, die in der Gesellschaft vorherrschen – oder schaffen ganz neue Möglichkeiten der Unterdrückung und Marginalisierung. Algorithmische Entscheidungssysteme können die soziale Ungerechtigkeit verstärken, die sie eigentlich abschaffen sollten.

Wo sind die Designer*innen in diesem Prozess? Als Designer*innen gestalten wir Produkte, Services und Systeme, doch bei der Schaffung von KI-Tools kommen wir allzu oft nur ganz am Ende des Gestaltungsprozesses, bei dem Design des Interfaces, vor. Dabei sind unsere Kenntnisse im Mensch-zentrierten Gestalten, im qualitativen Erkenntnisgewinnen und im Einlassen auf andere Perspektiven eine gute Voraussetzung, um Ungerechtigkeiten anzugehen. Dafür müssen wir uns aber mit diesen Ungerechtigkeiten, mit Machtverhältnissen und Privilegien auseinandersetzen, und damit, wie sie unsere Gestaltung beeinflussen.

Select LanguageGerman