Main focus: AI Fairness & Responsible Tech
Social Media:
Languages: German, English
City: Munich
Country: Germany
Topics: artificial intelligence, gender in technology, ai, ai biases, ki, responsible ai, ki basics, ki governance
Services: Talk, Interview
Willing to travel for an event.
Willing to talk for nonprofit.
I conduct research on gender-specific discrimination in training data for large language models such as ChatGPT. In addition, I focus on the topics of Responsible AI and Gender in Technology.
Stefanie Urchs is a doctoral researcher in statistics at LMU Munich. She conducts research on gender discrimination in training data for large language models such as ChatGPT. Her work focuses on making societal biases in data visible, analysing how they are algorithmically amplified, and developing new approaches for Responsible AI.
In addition to her research, she brings interdisciplinary experience from projects at the intersection of computer science, social sciences, and law. In her talks, she demonstrates how technical analyses can be connected with societal questions to critically and practically address Gender in Technology.
Examples of previous talks / appearances:
Künstliche Intelligenz findet immer mehr Einzug in unseren Alltag und erleichtert so manchen Arbeitsschritt. Doch sie kann auch Stereotype verstärken und die Benachteiligung von bestimmten Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools zeigte. Wie sich genderspezifische Vorurteile auch in KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen tun kann, erklärt die Informatikerin Stefanie Urchs von der Hochschule München: Sie erforscht, wie man Trainingsdaten auf Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training eingesetzt werden.
This talk is in: German
KI-Sprachmodelle wie ChatGPT sind ein gutes Werkzeug für das Verfassen von Texten. Sie haben jedoch Schwierigkeiten, bei geschlechtsspezifisch formulierten Aufforderungen geschlechtsneutral zu antworten. KI-Chatbots neigen zu sexistischen Vorurteilen. Um diese Verzerrungen zu vermeiden, müssen Menschen zurzeit die Ergebnisse noch überprüfen.
Zu diesem Thema forscht HM-Doktorandin Stefanie Urchs von der Fakultät für Informatik und Mathematik der Hochschule München.
This talk is in: German