Main focus: Artificial Intelligence & bias
Website/blog: https://www.linkedin.com/in/klara-krieg/
Languages: German, English
City: Munich
State: Bavaria
Country: Germany
Topics: machine learning, chatbots, ai, diversity in tech, algorithmic fairness, fair ai, unconscious bias in ai, gender biased algorithms, unfair ai, chatgpt, unfaire technologien, ki in der anwendung, diskriminierung in algorithmen, biased ai, diversity in ai, ai fairness
Services: Talk, Moderation, Workshop management, Consulting, Interview
Willing to travel for an event.
I don't want to talk for nonprofit.
In my keynotes, I present the issue of unfair AI, catering to diverse audiences, be it HR or Tech-oriented. I can flexibly adapt to the audience and show new scientific knowledge from sociology and computer science. The focus of my speaking gigs revolves around igniting awareness and shaking up the perception of AI and Machine Learning as they can perpetuate discrimination. By exposing how our own biases find their way into these technologies, I emphasize the importance of recognizing and rectifying these shortcomings.
My ultimate goal is to promote a more inclusive and equitable approach to AI development and implementation, fostering a future where these technologies empower and benefit everyone without exacerbating societal prejudices.
As a dedicated hobby researcher, I have contributed to the field by presenting and publishing three impactful papers, with a particular focus on addressing gender bias in AI.
Who is Klara Krieg?
bridging the realms of engineering and IT, not only in her academic pursuits but also in her current role as a AI program managemer at Bosch. Klara's AI journey led her to the vibrant tech hub of Silicon Valley, where she contributed significantly to projects in generative AI and Large Language Models.
Driven by her passion for computer science, Klara embarked on a mission to shed light on the inherent flaws of seemingly impartial algorithms. Her fervour for the subject of biased neural networks and fair AI fuels her ongoing part-time research in this area. Beyond her scholarly pursuits, Klara actively engages in various tech networks, where she ardently advocates for women in tech and celebrates diversity, striving towards a future and working world that embodies gender equality.
As a speaker, she regularly appears on stage both internally at Bosch and externally.
What can you expect?
Machine learning has become an integral part of our society: Whether in applicant selection, medical treatment recommendation or credit rating, whether Alexa, ChatGPT or Google - the boundaries between us and the technology around us often become blurred. Despite all the benefits, more and more reports are coming out about unfair or discriminatory algorithms. Often, certain groups of people are disproportionately affected and discriminated against based on sensitive characteristics (e.g. race, gender). I will give you an insight into how our internalized stereotypes and prejudices can be reflected in AI-based systems. The talk is suitable for non-techies, techies and anyone interested!
Examples of previous talks / appearances:
Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft: Ob bei der Bewerber*innenauswahl, medizinischen Behandlungsempfehlung oder Kreditwürdigkeitsprüfung, ob Alexa, ChatGPT oder Google. Allen Vorteilen zum Trotz handelt der Algorithmus dabei oft unfair oder diskriminierend. Bestimmte Personengruppen sind dabei auf Grund von sensitiven Merkmalen (bspw. Race, Gender) meistens überproportional häufig betroffen. Klara Krieg zeigt auf, wie sich unsere internalisierten Stereotype und Vorurteile in KI-basierten Systemen wiederfinden können und was das für die Mädchenarbeit in Hessen bedeuten kann. Der Vortrag eignet sich für non-Techies, Techies und alle Interessierten!
This talk is in: German
Unfair AI - ethics in chatbots?
ChatGPT als Hypethema ist in den Medien aktuell omnipräsent. Doch dürfen wir nicht vergessen, dass neben der technischen Innovation auch die ethischen Implikationen beleuchtet und ernst genommen werden müssen.
Ich gehe im Vortag auf Transformer Modelle ein, wie das Google Paper in 2017 diese ermöglichen und wie solche Modelle als technische Grundlage Lösungen wie ChatGPT erst ermöglicht haben.
Ich zeige die Folgen und die Ursachen des viscous cycle of bias und wie wir mehr Aufmerksamkeit auf die Durchbrechung von Stereotypen legen müssen, um gesellschaftliche Missstände und deren Reflektion in Algorithmen zu vermeiden.
Vortrag zu unfairen Algorithmen und geschlechterdiskriminierender KI beim WIN Lunch von Deloitte.
Im Rahmen eines Events des DemoZ in Ludwigsburg habe ich über unfaire Algorithmen in Google und insbesondere ChatGPT gesprochen und den Teufelskreis der algorithmischen Biases diskutiert. Egal ob non-Techies oder ITler*innen, das Thema wird niedrigschwellig und einfach aufbereitet nahegebracht, sodass am Ende von Diskussionen über Transformer-Architektur bis Soziologie und Stereotype Theory alles dabei ist.
In der 20. Folge unseres #FrauenMachenMINT Podcasts sprechen wir mit Klara Krieg über ihr Forschungsgebiet zum Thema #GenderBias in Algorithmen. Klara ist Trainee im Junior Managers Program AI (Artifical Intelligence) & IoT (Internet of Things) bei Bosch, hat ihren Master in Wirtschaftsinformatik absolviert und ihre Masterarbeit zu dem Thema Geschlechterstereotype in Suchmaschinen geschrieben.
Gender Bias in Algorithmen sind systematische, unfaire Diskriminierungen in Informationssystemen, und somit Teil unserer digitalisierten Gesellschaft. Klara beschäftigt sich sowohl wissenschaftlich als auch privat sehr stark damit, wie Algorithmen, und ganz spezifisch Suchmaschinen, unfair sein können, welche Stereotype von Frauen und Männern dadurch gefestigt werden, und was wir als User*innen dagegen tun können. Sie beschreibt, warum das Gendern in unserer Sprache ganz konkrete Auswirkungen auf Informationssysteme und Algorithmen hat, und warum unsere Realität die Bilder-Ergebnisse in Suchmaschinen beeinflussen und vice versa.
Klara spricht sich offen dafür aus, dass wir als Teil der Gesellschaft unser Bewusstsein dazu schärfen sollten, wie wir unsere Sprache bezüglich Stereotype nutzen, und wie ein Informationssystem, das in 1 und 0 "denkt", keinen semantischen Spielraum hat, marginalisierte Gruppen "mitzumeinen" bzw. zu inkludieren. Es ist ein sehr spannendes und relevantes Gespräch über ein Thema, das sich im Spannungsfeld der Verschmelzung von Technik, Gesellschaft und Soziologie befindet.
Höre rein:
Spotify: https://lnkd.in/dSQRPpU
Apple Podcast: https://lnkd.in/ddqmeJx
This talk is in: German
Racial Biases und Vorurteile begleiten uns leider unbewusst - nicht nur in der realen, sondern ebenso in der digitalen Welt. Ich nahm das Publikum mit durch die erschütternde Welt der unfairen AI, im konkreten Social Media und Racial Biases. Von Saliency Mapping in neuronalen Netzen hinzu der Diskriminierung von Menschen auf Twitter: das Publikum wurde aufgerüttelt und war zuweilen sprachlos, wie es zu so etwas kommen kann.
Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft eingenommen: Ob bei der Bewerber*innenauswahl, medizinischen Behandlungsempfehlung oder Kreditwürdigkeitsprüfung – oft unterstützen oder ersetzen sie gar menschliche Entscheidungsträger*innen. Während die Vorteile solcher Automatisierung unbestreitbar sind, wird vermehrt über Algorithmen berichtet, die bestimmte Personengruppen wegen sogenannter sensibler Merkmale, wie z.B. Geschlecht oder Hautfarbe, diskriminieren. Besonders als Frauen sind wir oft davon betroffen. Können Algorithmen lernen „fair“ zu entscheiden? Kann man „Fairness“ überhaupt messen? Wir geben euch einen Einblick in das Forschungsfeld des fairen maschinellen Lernens, das sich mit diesen Fragen befasst. Diskutiert mit uns, vor welche Herausforderungen uns automatisierte Entscheidungssysteme stellen und was wir dagegen tun können!
This talk is in: German
Do Perceived Gender Biases in Retrieval Results affect Users’ Relevance Judgements?
Paper presentation and discussion about my research.