Main focus: responsible and sustainable AI
Twitter handle: @_ngeisler
Website/blog: https://www.informatik.tu-darmstadt.de/datamanagement//datamanagement/dm_people/dm_people_detailseite_95424.en.jsp
Languages: English, German
City: Darmstadt
Country: Germany
Topics: tech for good, tech culture, computer science, machine learning, artificial intelligence, tech and society, explainable artificial intelligence
Services: Talk, Moderation, Workshop management, Interview
Willing to travel for an event.
Willing to talk for nonprofit.
I am interested in various areas where Computer Science intersects with areas such as ethics, society, equality, sustainability etc. Within Computer Science I focus on Machine Learning/Artificial Intelligence, most recently on explainability (XAI), which is related to fairness and transparency.
I have previously spoken about Deep Learning, NLP, Culture in Tech, Women in Computer Science, Fairness with regard to Artificial Intelligence, Idiosyncracies in Machine Learning and Implicit Bias in Machine Learning.
I have studied at TU Darmstadt and received a Bachelor's degree in Computer Science, and two Master's degrees, Computer Science with a minor in Entrepreneurship and Innovation and Internet- and Web-based Systems. At the moment I work at the Data Management group there, supervised by Prof. Carsten Binnig, and pursue a Dissertation in the area of Explainability for Maschine Learning on relational data.
Examples of previous talks / appearances:
Deep Learning ist von einem Dead End zur ultimativen Lösung aller Machine Learning Probleme geworden - und einiger anderer auch. Aber wie gut ist dieser Trend wirklich? Und wie nachhaltig?
Wir setzen uns mit wissenschaftlicher Nachhaltigkeit, sozialen Auswirkungen, und den Folgen für unsere Ressourcen, unseren Energieverbrauch, und damit unseren Planeten auseinander.
Deep Learning ist von einem Dead End zur ultimativen Lösung aller Machine Learning Probleme geworden. Die Sinnhaftigkeit und die Qualität der Lösung scheinen dabei jedoch immer mehr vom Buzzword Bingo verschluckt zu werden.
Ist es sinnvoll, weiterhin auf alle Probleme Deep Learning zu werfen? Wie gut ist sind diese Ansätze wirklich? Was könnte alles passieren, wenn wir so weiter machen? Und können diese Ansätze uns helfen, nachhaltiger zu leben? Oder befeuern sie die Erwärmung des Planetens nur weiter?
Wir setzen uns im Detail mit drei Fragestellungen auseinander:
1. Wissenschaftliche Nachhaltigkeit: Wie gut sind die Ergebnisse wirklich? Was können die modernen neuronalen Netze und was können sie nicht? Und vor allem: Wo werden sie eingesetzt und wie sinnvoll ist das? KI Systeme, deren Beschreibung beeindruckend sind, produzieren nicht immer die besten Ergebnisse, und Reproduzierbarkeit, Evaluation, und Reflexion leiden unter Konkurrenzdruck und dem Publikationszyklus. Außerdem, welche Lösungen und Ansätze gehen im Deep Learning Hype unter? Dafür, dass sich so viele Forscher*innen mit dem Thema beschäftigen, zahlen wir damit, dass andere Themen, Ideen und Ansätze ignoriert werden - obwohl sie nützlich sein könnten.
2. Gesellschaftliche Auswirkungen: Was macht das mit unserer Gesellschaft? Insbesondere die Maschinen, die auf irgendeiner Ebene versuchen, Menschen zu imitieren, aber auch viele Anwendungen, die wir alltäglich verwenden, haben einen grundlegenden Einfluss auf uns, der nicht immer ausreichend reflektiert wird. Maschinen können auch diskriminieren, unsere Entscheidungen beeinflussen, uns in falscher Sicherheit wiegen und Aufgaben übernehmen, denen sie überhaupt nicht gewachsen sind.
3. Umwelteinfluss: Welche Ressourcen investieren wir? Rechenzentren, riesige Data Warehouses, Kryptocurrency-Berechnung und Compute Cluster haben einen nicht mehr vernachlässigbaren Einfluss auf unsere endlichen Ressourcen und den CO2-Haushalt, direkt und indirekt. Die Menge an Strom, Zeit, Platz und Material, die wir investieren, sind in den letzten Jahren massiv gewachsen. Wollen wir wirklich so weiter machen?
This talk is in: German