Jessica Wulf

Project Manager


Main focus: anti-discrimination in AI

Websites/blogs: https://algorithmwatch.org/en/team/jessica-wulf/ , https://algorithmwatch.org/en/autocheck/

Languages: English, German

City: Berlin, Germany

Country: Germany

Topics: women in leadership, automated decision making systems, anti-discrimination, bias, bias in ai, diskriminierungsrisiken in ki

Services: Talk, Moderation, Workshop management, Interview

  Willing to travel for an event.

  Willing to talk for nonprofit.

Examples of previous talks / appearances:

Film und Diskussion: Coded Bias. Rassismus und Künstliche Intelligenz

Coded Bias wurde 2020 auf dem Sundance Filmfestival uraufgeführt und folgt der Forscherin Joy Buolamwini des Massachusetts Institute of Technology bei ihrer Erforschung von Bias in der Gesichtserkennungstechnologie (FRT) und anderen Formen der künstlichen Intelligenz (KI). In dem Film beginnt Buolamwini, Voreingenommenheit in der KI zu untersuchen, nachdem sie bemerkt hat, dass ein Gesichtserkennungsprogramm ihr Gesicht nicht identifizieren kann. Als Schwarze Frau erkennt die Technologie ihr Gesicht nur, wenn sie eine weiße Maske aufsetzt. Nach weiteren Untersuchungen entdeckt sie ein Muster: FRT- und KI-Technologie neigen dazu, rassistische Ausschlüsse zu reproduzieren. Wir werden um 19 Uhr zusammengekommen und gemeinsam die Doku über Netflix (dafür braucht ihr einen eigenen Account!) streamen.

Ab 20.30 Uhr werden wir mit zwei Expertinnen zum Thema Rassismus und künstliche Intelligenz diskutieren. Hierfür haben wir Miriam Klöpper (Forschungszentrum Informatik) und Jessica Wulf (AlgorithmWatch) eingeladen. Es ist auch möglich an der Diskussion teilzunehmen, ohne vorher die Doku zu gucken!

This talk is in: German
Virtuelles Werkstattgespräch: HR 4.0 und Diversity – Zwischen Gleichstellungs- und Diskriminierungspotentialen

Die Einsatzmöglichkeiten intelligenter Technologien im Bereich Human Resources nehmen stetig zu und reichen von der Optimierung der Stellenanzeigen bis zur Endauswahl der Bewerbenden. Studien zeigen, dass seit Beginn der Pandemie die Nutzung technologischer Systeme im Personalwesen gestiegen ist. Oftmals wird Technologien mehr Objektivität zugeschrieben – doch welche intersektionalen Ungleichheitslagen ergeben sich durch den Einsatz auf dem Arbeitsmarkt?

Unter dem Spannungsfeld der Chancen und Herausforderungen möchten wir in unserem Online-Werkstattgespräch „HR 4.0 und Diversity – Zwischen Gleichstellungs- und Diskriminierungspotentialen“ über folgende Fragen diskutieren:
Inwieweit fördern digitale Technologien im Auswahlprozess eine Umsetzung von Diversity-Zielen?
Inwieweit (be)fördern digitalen Technologien?
Inwiefern werden Stereotype (re)produziert oder ihnen entgegengewirkt?
Bietet die Digitalisierung Möglichkeiten die Geschlechterverhältnisse auf dem Arbeitsmarkt neu zu denken?
Welche Kriterien sind wichtig, um Technologien fair und diskriminierungsfrei zu gestalten?

Wir freuen uns auf den Austausch mit Expert:innen aus Wissenschaft und Praxis.

„Können Algorithmen diskriminieren?“
Jessica Wulf, AlgorithmWatch - Projektmanagerin für das Projekt AutoCheck – Handlungsanleitung für den Umgang mit automatisierten Entscheidungssystemen für Antidiskriminierungsstellen.

This talk is in: German
Alles (un)fair? Geschlechtsspezifische Diskriminierung durch KI

Mein Vortrag fand im Rahmen der digitalen Konferenz: „Frauen* und Künstliche Intelligenz – Geschlechterpolitische Veränderungen durch neue Technologien“ statt.

Die Veranstaltung ist hier zusammengefasst:
https://www.eaf-berlin.de/news/digitaler-ki-kongress-zu-geschlechtergerechtigkeit/page/46/

This talk is in: German
Wie künstliche Intelligenz (KI) soziale Ungleichheiten verstärken kann.

KI, die auf der Grundlage großer Datenmengen Entscheidungen trifft oder anleitet, kann diskriminierende Effekte erzeugen und vorhandene Ungleichheiten automatisiert verstärken – vor allem dann, wenn sie in gesellschaftlichen Kontexten wie dem Arbeitsmarkt, sozialstaatlichen Verteilungen oder Kreditfragen zur Anwendung kommt.

Jessica Wulf von AlgorithmWatch gibt uns einen Einblick, wie durch Künstliche Intelligenz Ungleichbehandlung und Diskriminierung fortgeführt werden. Das macht sie u.a. anhand von Beispielen aus Bewerbungsprozessen und Online-Formularen.

AlgorithmWatch ist eine gemeinnützige Forschungs- und Advocacy-Organisation mit dem Ziel, Systeme automatisierter Entscheidungsfindung (ADM) und deren Auswirkungen auf die Gesellschaft zu beobachten und zu analysieren. https://algorithmwatch.org/de/

This talk is in: German