Jessica Wulf

Researcher / Trainer


Main focus: anti-discrimination in AI

Websites/Blogs/Social Media Accounts: https://algorithmwatch.org/en/team/jessica-wulf/
https://algorithmwatch.org/en/autocheck/

Languages: German, English

City: Berlin, Germany

Country: Germany

Topics: artificial intelligence, automated decision making systems, bias in ai, ethics and ai

Services: Talk, Moderation, Workshop management, Interview

  Willing to travel for an event.

  Willing to talk for nonprofit.

Examples of previous talks / appearances:

AI systems and discrimination? Challenges in the age of ChatGPT, algorithms in recruitment and automated image generation

Im Rahmen der internen Weiterbildungstage der Deutschen Welle habe ich im September 2023 eine Keynote zum Thema Künstliche Intelligenz und Diskriminierungsrisiken gehalten.

This talk is in: English
KI-Systeme und Diskriminierung - was bedeutet das für die Lehre?

Im November 2023 habe ich an der Hochschule Bremen einen internen Workshop gegeben.

Inhalt:
Individualisierte Preise im Onlinehandel, die Bestimmung unserer Kreditwürdigkeit oder von ChatGPT generierte Texte, sind Beispiele für die Anwendung von KI-Systemen oder automatisierten Entscheidungssystemen. In diesem Workshop lernen Sie die Grundlagen zum Thema „Diskriminierungsrisiken durch Automatisierte Entscheidungs-/ KI-Systeme“. Diese Grundlagen werden gemeinsam auf den jeweiligen Arbeitskontext übertragen.

Folgende Themen werden angesprochen:
- Was sind Algorithmen, KI-Systeme und automatisierte Entscheidungssysteme?
- Welche Fallbeispiele und welche Ursachen für Diskriminierung durch diese Systeme gibt es?
- Was hat haben die Systeme mit Arbeit in der Lehre zu tun?
- Welche Lösungsansätze existieren?

This talk is in: German
Beitrag im Bayrischen Rundfunk: Diskriminierung durch Künstliche Intelligenz

Im April 2023 wurde ich für das Format "puzzle" des BR Fernsehen interviewt. Die Beschreibung zum Beitrag:

"Künstliche Intelligenz kann nur so frei von Vorurteilen sein, wie die Menschen die sie entwickeln und anwenden. Die gemeinnützige Forschungs- und Advocacy-Organisation AlgorithmWatch beobachtet und analysiert Systeme automatisierter Entscheidungsfindung und deren Auswirkungen auf die Gesellschaft."

This talk is in: German
Computer says no: Diskriminierung durch Künstliche Intelligenz

Im Rahmen der Fachtagung zur Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) habe ich gemeinsam mit Jan-Laurin Müller
(Universität Bayreuth) einen Workshop zu neuen Herausforderungen für das Antidiskriminierungsrecht durch algorithmische Entscheidungssysteme gegeben.

This talk is in: German
Digitalisierung und (Un-)Gerechtigkeit

Online-Inputs mit Diskussion:
Ziele, Inhalte, Zielgruppen:

- Einführung in das Thema für alle interessierte Einsteiger*innen und Akteur*innen der Antidiskriminierungsarbeit
- Welche Aspekte sind für die Beratungspraxis / Begleitung von Betroffenen besonders wichtig?
- Welche Forderungen müssen wir als Zivilgesellschaft stellen, um die Diskriminierung durch automatisierte Entscheidungssysteme zu bekämpfen?

Nach dem Vortrag von Dr. Elisa Orrù "Digitalisierung und (Un-)Gerechtigkeit. Wie Algorithmen und KI zu Verzerrungen und Diskriminierung beitragen und was wir dagegen tun können" wird Jessica Wulf von AlgorithmWatch die Handreichung "Automatisierte Entscheidungssysteme und Diskriminierung" vorstellen und dabei auch auf die Beratungspraxis von Antidiskriminierungsstellen und auf notwendige Reformen des AGG (Allgemeinen Gleichbehandlungsgesetzes) eingehen. Fragen und Diskussionsbeiträge sind erwünscht und willkommen!

Die Veranstaltung ist eine Kooperation des Adinet Mittelhessen und Antidiskriminierung Mittelhessen e.V.

This talk is in: German
Uncovering Automated Bias: Equality Bodies in Action

As part of the training: "Opening AI’s Black Box. How to find cases of algorithmic discrimination"

[This training took place in hybrid format on 1 December from 9:00 to 16:30 CET. It targeted Equality Bodies, with focus on members of Equinet’s Cluster on Artificial Intelligence, in order to improve their knowledge on how to identify cases of algorithmic discrimination.]

"The notorious “black box “ of automated decision-making, including through Artificial Intelligence (AI)-enabled systems, poses a serious and widely discussed challenge to the effectiveness of non-discrimination law. If underreporting has been known to undermine the strength of legal protection against discrimination, then AI-systems threaten to exponentially increase its scale and negative impact. With victims of discriminatory algorithms often being left unaware that they are discriminated against, the responsibility of identifying and tackling AI-enabled discrimination could increasingly fall upon Equality Bodies, whether working alone or alongside with relevant national sectoral regulators.

​The training addressed this challenge by highlighting and exploring various ways in which equality bodies could look for and ultimately successfully identify cases of algorithmic discrimination."

This talk is in: English
Panel “Improving victim support and data collection via multisectoral cooperation”

A panel discussion as part of the KNW Fachveranstaltung „Vom Dunkelfeld zum Hellfeld – Perspektiven, Chancen und Herausforderungen für die zivilgesellschaftliche Erfassung und Dokumentation von Rassismen in Deutschland“.

Panel “Improving victim support and data collection via multisectoral cooperation”:
- Jessica Wulf (AlgorithmWatch)
- Dr. Sanja Bilic (European Forum of Muslim Women)
- Sabrina Saoudi (OSZE ODIHR Beraterin zur Bekämpfung von Intoleranz und Diskriminierung gegenüber Muslim*innen)
- Nevena Peneva (Equality, Roma and Social Rights Unit, Agentur der Europäischen Union für Grundrechte)

The panel discussion was about:
How can structural arrangements for the provision of hate crime victim support be implemented effectively and sustainably? How do these measures need to be designed to protect and support victims experiencing discrimination and hate crimes on intersectional grounds?

What kind of multisectoral cooperation do we need to collect and share data to capture the different and intersectional forms of racism?

Recording of the Panel: https://www.youtube.com/watch?v=VOiTO29yv3Y

Description of the event (German):
"Fachtagung des Kompe­tenz­netz­werks zur Prävention von Islam- und Muslim­feind­lichkeit
Kompetenznetzwerk zur Prävention von Islam- und Muslimfeindlichkeit

Im Zuge des Kabinettausschusses gegen Rechtsextremismus und Rassismus ist die zivilgesellschaftliche Erfassung und Dokumentation unterschiedlicher Rassismen vermehrt in den Fokus staatlicher Maßnahmen und Förderung gerückt. Rassistische und antisemitische Übergriffe und Diskriminierungen sind Alltag in Deutschland. Es braucht daher eine flächendeckende Erfassung und Dokumentation solcher Vorfälle durch unterschiedliche zivilgesellschaftliche und staatliche Stellen.

Vor welchen Herausforderungen stehen zivilgesellschaftliche Organisationen in der Dokumentation und Erfassung von Rassismus in Deutschland? Und was kann mit Blick auf andere EU-Länder verbessert werden? (Wie) Können Intersektionalität und institutionelle Formen von Rassismus durch zivilgesellschaftliches Monitoring sichtbar gemacht werden?

Diese und weitere Fragen stehen im Fokus der Fachtagung des Kompetenznetzwerks zur Prävention von Islam- und Muslimfeindlichkeit. Weitere Informationen zum Programm und Ablauf folgen zeitnah.

Die Fachtagung findet am Donnerstag, 17. November 2022 von 12.00 – 17.30 Uhr in Berlin statt. Das Programm ist unter Downloads verfügbar."

This talk is in: English
Automatisierte Entscheidungssysteme und Diskriminierung?

"No Rocket Science: Digitalisierung in der Sozialwirtschaft ist eine kostenfreie Onlinereihe für alle. Jeden ersten Donnerstag im Monat um fünf nach fünf geht es fünfzig Minuten um eine konkrete Herausforderung im Bereich Digitalisierung in Soziale Arbeit."

Zur Bestimmung der Chancen auf dem Arbeitsmarkt, zur Optimierung der Vergabe von Sozialleistungen oder zur Erkennung von Betrugsversuchen bei Kinderbetreuungsgeld – das sind Beispiele für den Einsatz automatisierter Entscheidungssysteme. Diese Systeme begegnen uns in immer mehr Bereichen unseres Lebens. Ihr Einsatz führt jedoch nicht unbedingt zu objektiveren oder neutraleren Entscheidungen, sondern immer wieder zu ungerechten oder diskriminierenden Ergebnissen.

Welche Beispiele für Diskriminierung durch automatisierte Entscheidungssysteme gibt es? Was sind die Ursachen? Welche Lösungsansätze existieren? Um diese und ähnliche Fragen wird es in dem Input und der anschließenden Diskussion gehen.

Jessica Wulf ist Projektmanagerin bei AlgorithmWatch für das Projekt AutoCheck – Handlungsanleitung für den Umgang mit Automatisierten Entscheidungssystemen für Antidiskriminierungsstellen. In dem Projekt erarbeiten wir u.a. konkrete und verständliche Anleitungen und Werkzeuge für Antidiskriminierungsberatungsstellen und konzipieren Fortbildungen zum Thema ADMS und Diskriminierungsrisiken. Jessica Wulf ist Arbeits- und Bildungspsychologin und arbeitete vor AlgorithmWatch als Gender und Diversitätsbeauftragte.

This talk is in: German
Film und Diskussion: Coded Bias. Rassismus und Künstliche Intelligenz

Coded Bias wurde 2020 auf dem Sundance Filmfestival uraufgeführt und folgt der Forscherin Joy Buolamwini des Massachusetts Institute of Technology bei ihrer Erforschung von Bias in der Gesichtserkennungstechnologie (FRT) und anderen Formen der künstlichen Intelligenz (KI). In dem Film beginnt Buolamwini, Voreingenommenheit in der KI zu untersuchen, nachdem sie bemerkt hat, dass ein Gesichtserkennungsprogramm ihr Gesicht nicht identifizieren kann. Als Schwarze Frau erkennt die Technologie ihr Gesicht nur, wenn sie eine weiße Maske aufsetzt. Nach weiteren Untersuchungen entdeckt sie ein Muster: FRT- und KI-Technologie neigen dazu, rassistische Ausschlüsse zu reproduzieren. Wir werden um 19 Uhr zusammengekommen und gemeinsam die Doku über Netflix (dafür braucht ihr einen eigenen Account!) streamen.

Ab 20.30 Uhr werden wir mit zwei Expertinnen zum Thema Rassismus und künstliche Intelligenz diskutieren. Hierfür haben wir Miriam Klöpper (Forschungszentrum Informatik) und Jessica Wulf (AlgorithmWatch) eingeladen. Es ist auch möglich an der Diskussion teilzunehmen, ohne vorher die Doku zu gucken!

This talk is in: German
Virtuelles Werkstattgespräch: HR 4.0 und Diversity – Zwischen Gleichstellungs- und Diskriminierungspotentialen

Die Einsatzmöglichkeiten intelligenter Technologien im Bereich Human Resources nehmen stetig zu und reichen von der Optimierung der Stellenanzeigen bis zur Endauswahl der Bewerbenden. Studien zeigen, dass seit Beginn der Pandemie die Nutzung technologischer Systeme im Personalwesen gestiegen ist. Oftmals wird Technologien mehr Objektivität zugeschrieben – doch welche intersektionalen Ungleichheitslagen ergeben sich durch den Einsatz auf dem Arbeitsmarkt?

Unter dem Spannungsfeld der Chancen und Herausforderungen möchten wir in unserem Online-Werkstattgespräch „HR 4.0 und Diversity – Zwischen Gleichstellungs- und Diskriminierungspotentialen“ über folgende Fragen diskutieren:
Inwieweit fördern digitale Technologien im Auswahlprozess eine Umsetzung von Diversity-Zielen?
Inwieweit (be)fördern digitalen Technologien?
Inwiefern werden Stereotype (re)produziert oder ihnen entgegengewirkt?
Bietet die Digitalisierung Möglichkeiten die Geschlechterverhältnisse auf dem Arbeitsmarkt neu zu denken?
Welche Kriterien sind wichtig, um Technologien fair und diskriminierungsfrei zu gestalten?

Wir freuen uns auf den Austausch mit Expert:innen aus Wissenschaft und Praxis.

„Können Algorithmen diskriminieren?“
Jessica Wulf, AlgorithmWatch - Projektmanagerin für das Projekt AutoCheck – Handlungsanleitung für den Umgang mit automatisierten Entscheidungssystemen für Antidiskriminierungsstellen.

This talk is in: German
Alles (un)fair? Geschlechtsspezifische Diskriminierung durch KI

Mein Vortrag fand im Rahmen der digitalen Konferenz: „Frauen* und Künstliche Intelligenz – Geschlechterpolitische Veränderungen durch neue Technologien“ statt.

Die Veranstaltung ist hier zusammengefasst:
https://www.eaf-berlin.de/news/digitaler-ki-kongress-zu-geschlechtergerechtigkeit/page/46/

This talk is in: German
Wie künstliche Intelligenz (KI) soziale Ungleichheiten verstärken kann.

KI, die auf der Grundlage großer Datenmengen Entscheidungen trifft oder anleitet, kann diskriminierende Effekte erzeugen und vorhandene Ungleichheiten automatisiert verstärken – vor allem dann, wenn sie in gesellschaftlichen Kontexten wie dem Arbeitsmarkt, sozialstaatlichen Verteilungen oder Kreditfragen zur Anwendung kommt.

Jessica Wulf von AlgorithmWatch gibt uns einen Einblick, wie durch Künstliche Intelligenz Ungleichbehandlung und Diskriminierung fortgeführt werden. Das macht sie u.a. anhand von Beispielen aus Bewerbungsprozessen und Online-Formularen.

AlgorithmWatch ist eine gemeinnützige Forschungs- und Advocacy-Organisation mit dem Ziel, Systeme automatisierter Entscheidungsfindung (ADM) und deren Auswirkungen auf die Gesellschaft zu beobachten und zu analysieren. https://algorithmwatch.org/de/

This talk is in: German