Klara Krieg

AI Program Manager @ Bosch


Themenschwerpunkt: KI in der Anwendung, fair AI

Webseiten/Blogs: https://www.linkedin.com/in/klara-krieg/ , https://scholar.google.com/citations?user=xFDOE3YAAAAJ&hl=en&oi=ao

Sprache/n: Deutsch, Englisch

Stadt: München

Bundesland: Bayern

Land: Deutschland

Themen: künstliche intelligenz, machine learning, chatbots, ai, diversity in tech, chatgpt, biased ai, ki in der anwendung, diskriminierung in algorithmen, unfaire technologien

Ich biete: Vortrag, Moderation, Seminarleitung, Beratung, Interview

  Ich bin bereit, für eine Veranstaltung zu reisen.

  Ich bin nicht bereit, für gemeinnützige Zwecke kostenfrei zu sprechen.

Persönliche Anmerkung:

Ich spreche über Künstliche Intelligenz in allen Facetten. Ich möchte einfach und verständlich die Hintergründe der aktuell gehypten Technologien erläutern und einfache Anwendungsbeispiele nahebringen.

Mein Forschungsschwerpunkt ist unfaire KI und wie es dazu kommen kann - egal ob HR oder Techie, ich kann mich flexibel dem Publikum anpassen und zeige neue wissenschaftliche Erkenntnis aus Soziologie und Informatik. Im Fokus steht das Aufrütteln und Awareness kreieren, inwiefern AI und Machine Learning generell diskriminierend sein kann und wie sich unsere Vorurteile darin wiederfinden. Verschiedene unconscious biases sind in der Gesellschaft bekannt und werden aktiv bereits bekämpft - nur leider finden diese Verbesserungen nur langsam ihren Weg in die Algorithmen und Technologien um uns. Racial Bias, Gender Bias und weitere negative Voreingenommenheiten (oft gegenüber marginalisierter Gruppen) sind noch zu präsent in Künstlicher Intelligenz. Ich kläre und rüttele auf und gebe einen Einblick in das gesamte Spektrum der algorithmischen Diskriminierung.

Ich bin Hobby-Forscherin und habe mehrere Paper zu dem Thema veröffentlicht und auf Konferenzen vorgestellt, insbesondere mit dem Fokus gender bias in AI.

Biografie:

Wer ist Klara Krieg?

Klara Krieg vereint die Welten Engineering & KI nicht nur durch ihre akademische Laufbahn, sondern auch durch ihre aktuelle Tätigkeit als AI Program Manager für generative KI bei Bosch. In ihrem letzten Projekt beschäftigte sie sich mit KI und Large Language Models im Silicon Valley.
Klaras Leidenschaft liegt darin, die komplexe Welt der KI-Algorithmen greifbar und verständlich zu machen. Sie ist überzeugt davon, dass technologisches Verständnis und die praktische Anwendung neuer Technologien Hand in Hand gehen müssen, um echten Mehrwert zu schaffen. Ihre Arbeit geht weit über das technische Know-how hinaus; sie zielt darauf ab, ein tiefes Verständnis für die Nuancen der Mensch-KI-Interaktion zu fördern und das enorme Potential für jeden einzelnen aufzuzeigen.
Neben ihrer beruflichen Tätigkeit engagiert sich Klara in der Forschung zu Themen wie diskriminierender Künstlicher Intelligenz und Fair AI. Ihre Erkenntnisse fließen nicht nur in ihre Projekte ein, sondern auch in ihre Vorträge, in denen sie komplexe Sachverhalte zugänglich macht. Klara steht sowohl intern bei Bosch als auch auf externen Bühnen und hat das Ziel, das Publikum mit ihrer klaren, anwendungsorientierten Sichtweise auf KI zu begeistern und eine hands-on Perspektive des komplexen Themenfeldes zu geben.
Als aktives Mitglied in verschiedenen Tech-Netzwerken setzt Klara sich leidenschaftlich für das Thema Women in Tech und Diversity ein. Ihr Ziel ist es, eine inklusive Zukunft und Arbeitswelt zu fördern, in der Technologie als Werkzeug dient, um Gleichberechtigung und faire Chancen für alle zu schaffen. Klara Krieg steht an der Schnittstelle von Technik und Gesellschaft und vermittelt nicht nur Wissen über KI, sondern inspiriert auch dazu, die ethischen und sozialen Aspekte der Technologienutzung zu reflektieren.


Was erwartet euch?
Ich biete aktuell 2 Keynote Varianten an:

1) Mensch – Maschine – KI: Wie interagieren wir mit Künstlicher Intelligenz?
In einer Welt, in der Künstliche Intelligenz (KI) zunehmend unseren Alltag durchdringt, eröffnet die Generative KI ganz neue Horizonte für Unternehmen, Entwickler und Endnutzer. Diese Keynote entführt Sie in die faszinierende Welt der Generativen Künstlichen Intelligenz, einer Technologie, die nicht nur Daten analysiert, sondern eigenständig Inhalte wie Texte, Bilder und Musik kreiert. Wir tauchen ein in die Mechanismen, die Generative KI antreiben, von den Grundlagen maschinellen Lernens bis hin zu den neuesten Entwicklungen in Deep Learning und neuronalen Netzwerken. Gleichzeitig addressiert die Keynote die mit dieser Technologie verbundenen Herausforderungen, insbesondere im Bereich der Ethik und der potenziellen Diskriminierung durch internalisierte Stereotype. Ziel ist es, ein Bewusstsein für verantwortungsvollen Umgang mit KI zu schaffen und zu diskutieren, wie unfaire Ergebnisse vermieden werden können.

2) Unfair AI & diskriminierende Algorithmen
Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft eingenommen: Ob bei der Bewerber*innenauswahl, medizinischen Behandlungsempfehlung oder Kreditwürdigkeitsprüfung, ob Alexa, ChatGPT oder Google – oft verschwimmen die Grenzen zwischen uns und der Technologie um uns herum. Allen Vorteilen zum Trotz werden immer mehr Berichte publik, die von unfairen oder diskriminierenden Algorithmen berichten. Oft sind davon bestimmte Personengruppen überproportional häufig betroffen und werden auf Grund von sensitiven Merkmalen (bspw. Race, Gender) diskriminiert. Ich gebe euch einen Einblick, wie sich unsere internalisierten Stereotype und Vorurteile in AI-basierten Systemen wiederfinden können. Der Vortrag eignet sich für non-Techies, Techies und alle Interessierten!

Vorträge / Referenzen:

Women of Tech (2024) Panel Talk: Wie können wir eine faire KI schaffen?

Panel Talk at the Women of Tech event in Stuttgart

Wie können wir eine faire KI schaffen?

together with

Klara Krieg, Robert Bosch GmbH
Walid Mehanna, Merck Group
Naz van Norel, ETHOS AI, Women AI Academy
Heike Schenk, Mercedes-Benz Group AG

Dieser Vortrag ist auf: Deutsch
EnBW (2024): Lunch & Learn: Diskriminierende Algorithmen und unfaire Künstliche Intelligenz

As part of the Lunch & Learns at EnBW, I had the opportunity to talk about gender bias in AI and discuss it with the participants.

Dieser Vortrag ist auf: Deutsch
Wirtschaftsforum Singen (2024) Mensch – Maschine – KI: Wie interagieren wir mit Künstlicher Intelligenz?

The kick-off explores the dynamic interaction between humans and machines through the use of generative AI, which independently creates content such as texts, images and music. Klara sheds light on how generative AI opens up new opportunities for businesses, developers and end users by enabling innovative solutions in various fields such as art, research and medicine. The presentation dives into the technical foundations and latest developments in generative AI, from machine learning to deep learning. At the same time, it addresses the challenges associated with this technology, particularly in the area of ethics and potential discrimination through internalized stereotypes. The aim is to raise awareness of responsible use of AI and to discuss how unfair results can be avoided.

Afterwards, Klara was part of the panel discussion with Südkurier editor-in-chief Stefan Lutz, Dr. Philip Häusser and Peter Keck. (https://www.suedkurier.de/region/kreis-konstanz/singen/denken-muessen-wir-immer-noch-selber-beim-wirtschaftsforum-geht-es-um-das-zukunftsthema-ki;art372458,11986689)

Dieser Vortrag ist auf: Deutsch
Google (2024): International Women's Day (IWD) #ImpactTheFuture 2024, Munich

As panelist I was invited to a session with the topic "Impact the Future of Technology and Society for the Better!" together with panelists from Microsoft and AI startups.
As part of the panel discussion, I brought insides on my ethical AI research and ethical AI practices across industries.

Dieser Vortrag ist auf: Englisch
Bosch Connected World (2024): AI - technology for life?

Kenynote Speaker & Panelist at the Bosch ConnectedWorld, the biggest Bosch event worldwide, happening once a year in Berlin.

AI - technology for life?
Is that true? Tap into the experiences of our two AI-experts Klara and Carissa, how the reproduction of unconscious biases of the real life in AI are endangering this vision. Together with the DEI-expert Stefanie they will explore opportunities to make AI bias-free and to bring this vision to life - For everyone!

Dieser Vortrag ist auf: Englisch
Women in tech e.V. (2024): Gender Bias & unfair AI - wieso Algorithmen diskriminieren

19. März 2024 12:00 Uhr – 19. März 2024 13:00 Uhr
Ort: digital
Veranstalter: Women in Tech e.V.
Kategorie: #PowerLunch

Bundesministerium für Digitales und Verkehr (2024): Bias in Bias out - Einblicke in diskriminierende KI & unfaire Algorithmen

As an AI mentor and speaker, I was able to accompany the Digital Future Challenge 2024, an initiative of the Federal Ministry & Deloitte.

Dieser Vortrag ist auf: Deutsch
Institut für Medienpädagogik und Kommunikation Hessen e.V. (2023) : Wenn der Algorithmus dich nicht für fähig hält - ein Einblick in diskriminierende Algorithmen und unfaire Künstliche Intelligenz

Machine learning methods have now established a firm place in our society: Whether in the selection of job applicants, medical treatment recommendations, or creditworthiness checks, whether it's Alexa, ChatGPT, or Google. Despite all the advantages, the algorithm often acts unfairly or discriminates. Certain groups of people are disproportionately affected due to sensitive characteristics (such as race, gender). Klara Krieg shows how our internalized stereotypes and prejudices can be found in AI-based systems and what this can mean for girls' work in Hesse. The lecture is suitable for non-techies, techies, and all interested parties!

Dieser Vortrag ist auf: Deutsch
Bosch Level Up Event (2023): Ethics in Chatbots

Unfair AI - ethics in chatbots?
ChatGPT as a hyped topic is currently omnipresent in the media. But we must not forget that, in addition to technical innovation, the ethical implications must also be examined and taken seriously.
In my talk, I will discuss Transformer models, how the Google Paper in 2017 makes them possible and how such models have made solutions like ChatGPT possible in the first place as a technical basis.
I will show the consequences and causes of the viscous cycle of bias and how we need to pay more attention to breaking stereotypes in order to avoid social grievances and their reflection in algorithms.

Deloitte WIN Session (2023): Unfaire Künstliche Intelligenz & diskriminierende Algorithmen

Presentation on unfair algorithms and gender-discriminatory AI at Deloitte's WIN Lunch.

DemoZ Ludwigsburg (2023): Unfaire KI in Chatbots - wie ChatGPT diskrimierend sein kann

As part of a DemoZ event Ludwigsburg, I spoke about unfair algorithms in Google and ChatGPT in particular and discussed the vicious circle of algorithmic biases. Whether non-techies or IT specialists, the topic is presented in a low-threshold and simple way, so that in the end everything from discussions about transformer architecture to sociology and stereotype theory is included.

Klara Krieg über Gender Bias in Algorithmen - Frauen machen MINT (2022)

In der 20. Folge unseres #FrauenMachenMINT Podcasts sprechen wir mit Klara Krieg über ihr Forschungsgebiet zum Thema #GenderBias in Algorithmen. Klara ist Trainee im Junior Managers Program AI (Artifical Intelligence) & IoT (Internet of Things) bei Bosch, hat ihren Master in Wirtschaftsinformatik absolviert und ihre Masterarbeit zu dem Thema Geschlechterstereotype in Suchmaschinen geschrieben.

Gender Bias in Algorithmen sind systematische, unfaire Diskriminierungen in Informationssystemen, und somit Teil unserer digitalisierten Gesellschaft. Klara beschäftigt sich sowohl wissenschaftlich als auch privat sehr stark damit, wie Algorithmen, und ganz spezifisch Suchmaschinen, unfair sein können, welche Stereotype von Frauen und Männern dadurch gefestigt werden, und was wir als User*innen dagegen tun können. Sie beschreibt, warum das Gendern in unserer Sprache ganz konkrete Auswirkungen auf Informationssysteme und Algorithmen hat, und warum unsere Realität die Bilder-Ergebnisse in Suchmaschinen beeinflussen und vice versa.

Klara spricht sich offen dafür aus, dass wir als Teil der Gesellschaft unser Bewusstsein dazu schärfen sollten, wie wir unsere Sprache bezüglich Stereotype nutzen, und wie ein Informationssystem, das in 1 und 0 "denkt", keinen semantischen Spielraum hat, marginalisierte Gruppen "mitzumeinen" bzw. zu inkludieren. Es ist ein sehr spannendes und relevantes Gespräch über ein Thema, das sich im Spannungsfeld der Verschmelzung von Technik, Gesellschaft und Soziologie befindet.

Höre rein:

Spotify: https://lnkd.in/dSQRPpU

Apple Podcast: https://lnkd.in/ddqmeJx

Dieser Vortrag ist auf: Deutsch
Bosch LEVEL UP (2022) Future Topics Speaking Event: Unfair AI & Racial Biases

Racial biases and prejudices unfortunately accompany us unconsciously - not only in the real world, but also in the digital world. I took the audience through the harrowing world of unfair AI, specifically social media and racial biases. From saliency mapping in neural networks to discrimination against people on Twitter: the audience was shaken up and at times left speechless as to how this can happen.

Femtec Alumnae Event (2022): Wenn der Algorithmus dich nicht für fähig hält – Ein Einblick in diskriminierende Algorithmen und fair AI

Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft eingenommen: Ob bei der Bewerber*innenauswahl, medizinischen Behandlungsempfehlung oder Kreditwürdigkeitsprüfung – oft unterstützen oder ersetzen sie gar menschliche Entscheidungsträger*innen. Während die Vorteile solcher Automatisierung unbestreitbar sind, wird vermehrt über Algorithmen berichtet, die bestimmte Personengruppen wegen sogenannter sensibler Merkmale, wie z.B. Geschlecht oder Hautfarbe, diskriminieren. Besonders als Frauen sind wir oft davon betroffen. Können Algorithmen lernen „fair“ zu entscheiden? Kann man „Fairness“ überhaupt messen? Wir geben euch einen Einblick in das Forschungsfeld des fairen maschinellen Lernens, das sich mit diesen Fragen befasst. Diskutiert mit uns, vor welche Herausforderungen uns automatisierte Entscheidungssysteme stellen und was wir dagegen tun können!

Dieser Vortrag ist auf: Deutsch
European Conference on Information Retrieval (2022) l: Do Perceived Gender Biases in Retrieval Results affect Users’ Relevance Judgements?

Do Perceived Gender Biases in Retrieval Results affect Users’ Relevance Judgements?
Paper presentation and discussion about my research.

Dieser Vortrag ist auf: Englisch