Main focus: (Explainable) AI, Data Science
Website/blog: https://www.linkedin.com/in/verena-barth-7a6546192/
Languages: German, English, Spanish
City: Cologne
Country: Germany
Topics: machine learning, artificial intelligence, data science, ai ethics, explainable ai, xai, bias in ai, mlops
Services: Talk, Interview
Willing to travel for an event.
Willing to talk for nonprofit.
I am interested in fair, accountable, transparent and human-centered AI, with my professional focus on automation (MLOps) and my private focus on the ethical aspects.
By making society aware of the potential discrimination of AI and by highlighting the importance of Explainable AI (XAI) and promoting its use, I try to improve the interpretability of and the trust in ML models without limiting their (learning) performance.
Verena Barth is a consultant at viadee IT consultancy. She has both practical and theoretical experience in data mining, data science, and artificial intelligence.
In addition to the AI context, she has practical experience in software engineering with both front-end and back-end technologies. Her particular focus is on optimizing and automating ML workflows (MLOps) and testing the resulting AI systems with respect to their tractability (XAI).
Examples of previous talks / appearances:
Die MLOps-Plattform Kubeflow hat sich zum Ziel gesetzt, die Bereitstellung von End-to-End Workflows für maschinelles Lernen (ML) einfach, portabel, reproduzierbar und skalierbar zu machen - und das gelingt nirgends besser als in Kubernetes in der Cloud!
Die modulare Multi-Architektur und Multi-Cloud setzt sich aus verschiedenen Best-of-breed-Open-source-Systemen zusammen und schlägt die Brücke zwischen den experimentierfreudigen Data Scientists und dem DevOps-Team.
In diesem Vortrag lernt ihr einige ML-spezifische Probleme kennen und erfahrt, wie Kubeflow sie adressiert. Mit einer beispielhaften Pipeline wird verdeutlicht, wie man einen Lebenszyklus mit Kubeflow-Pipelines abbildet und ihn dann auf Kubernetes ausführt.
This talk is in: German
Tiefe neuronale Netze (DNNs) sind zu beliebten und verbreiteten Werkzeugen für genaue und effiziente Klassifikationen oder Prognosen geworden. Aufgrund ihrer inhärenten Komplexität sind sie jedoch für den Menschen oft unverständlich und ihre Entscheidungen nicht nachvollziehbar.
Die mangelnde Transparenz dieser sogenannten Black-Boxes ist ein großer Nachteil und besonders in kritischen Bereichen, in denen eine Interpretierbarkeit entscheidend ist, ein Hindernis bei ihrem Einsatz.
Erklärbare Künstliche Intelligenz (XAI, Explainable Artificial Intelligence) versucht mithilfe von verschiedenen Methoden, das Problem fehlender Transparenz von ML-Modellen zu adressieren und die Ergebnisse der Lösung für den Menschen verständlich zu machen.
In diesem Vortrag wird das Potenzial von XAI erschlossen und aufgezeigt, wie man die Interpretierbarkeit von und das Vertrauen in ML-Modelle fördert, ohne ihre (Lern-)Leistung einzuschränken. Es werden verschiedene XAI-Methoden vorgestellt und taxonomisch eingeordnet. Zudem wird erläutert, welche Kriterien eines spezifischen Modell-, Daten- und Nutzungskontexts bei der Auswahl und Bewertung der Eignung von XAI-Methoden zu berücksichtigen sind. Nach einer kurzen Vorstellung ausgewählter XAI-Methoden werden abschließend allgemeine Handlungsempfehlungen zur Sicherstellung interpretierbarer ML-Modelle innerhalb eines Entwicklungs- und Deployment-Workflows gegeben.
This talk is in: German
Metadaten von Daten und ML-Modellen sind entscheidend für die Reproduzierbarkeit beim maschinellen Lernen und Reproduzierbarkeit ist entscheidend für zuverlässige Produktionseinsätze.
Um ein Modell zu verstehen, es zu analysieren, Probleme zu beheben und es zu verbessern, müssen Datenwissenschaftler:innnen die Input-Daten und ihre Verarbeitung verstehen. Die Kubeflow Plattform unterstützt uns dabei: Das automatische Tracken und Archivieren aller im Lebenszyklus eines Modells produzierten und erhobenen Daten ist ein Hauptmerkmal der Kubeflow Pipelines. Sobald die Plattform allerdings für reale Anwendungsfälle mit großen Datenmengen genutzt wird, können einige Features für die Reproduzierbarkeit des Modell-Lebenszyklus dem Nutzer zum Nachteil gereichen. In diesem Vortrag werden die Gründe dafür beleuchtet und verschiedene Varianten (und ihre jeweiligen Schwierigkeiten) aufgeführt, die Big Data und Kubeflow Pipelines effizient kombinieren können.
This talk is in: German
Die Plattformen SAS Viya und Kubeflow ermöglichen es beide skalierbare Machine Learning Modelle als koordinierte Dienste bereitzustellen. Beide Plattformen können auf allen gängigen Cloud-Plattformen oder auch On-Premise betrieben werden und basieren technisch auf Kubernetes und wiederverwendbaren ML-Pipelines, die als DAG strukturiert sind. Doch wie unterscheiden sich die Plattformen etwa hinsichtlich Datenmanagement, Feature Engineering, Modellbildung und -validierung? Kann SAS Viya mit der OpenSource Plattform mithalten?
This talk is in: German