Main focus: AI & Society
Website/blog: https://algorithmwatch.org/en/team/pia-sombetzki/
Languages: German, English
City: Berlin
State: Berlin
Country: Germany
Topics: surveillance, artificial intelligence, ai and society, ai biases, ai and the future of work
Services: Talk, Interview
Willing to travel for an event.
Willing to talk for nonprofit.
Pia is mainly concerned with the regulation of ADM systems in Germany. For example, how algorithmic discrimination can be addressed through the reform of the German General Equal Treatment Act, how more transparency about the use of ADM systems in the public sector should be established through a national AI register, or what challenges we face in regulating platforms or AI in the workplace.
Pia holds a Master's degree in Sociocultural Studies from the European University Viadrina in Frankfurt (Oder) and a Bachelor's degree in European Studies from Maastricht University.
Before joining AlgorithmWatch, she worked as a political educator. Pia had previously worked at organisations such as Human Rights Watch, INKOTA-netzwerk e.V. and European Alternatives.
Examples of previous talks / appearances:
Conversarion at re:publica conference 2024, together with Likhita Banerji, Amnesty Tech & Naomi Appelman, Racism & Technology Center
Description:
Civil society actors and journalists have been instrumental in uncovering many of the current-day harms of AI, from biased welfare algorithms to disinformation spread through generative AI. Let's take a moment to take stock as well as explore the difficulties that come along the way.
https://re-publica.com/de/session/discrimination-disinformation-what-it-means-investigate-ai-harms-today
This talk is in: English
Gemeinsam mit Helene Hahn, Referentin für Internetfreiheit bei Reporter ohne Grenzen e.V., Andrea Sanders-Winter, Unterabteilungsleiterin Bundesnetzagentur und Khoa Trung Le, Chefredakteur und Herausgeber von Thoibao.de sprachen wir zu den neuen Möglichkeiten für die Plattformaufsicht, die sich durch die Umsetzung des Digital Services Act in Deutschland ergeben.
Mit dem Digitale-Dienste-Gesetz und der Bundesnetzagentur als Koordinierungsstelle für alle Anfragen und Beschwerden startet Deutschland endlich in eine neue Ära der Plattformaufsicht: Nutzer*innen sollen online besser geschützt werden – vor digitaler Gewalt, Manipulation, aber auch diskriminierenden Algorithmen der Plattformen. Die Zusammenarbeit erfolgt mit der EU-Kommission, die große Plattformen beaufsichtigt. Große Versprechen macht das neue Gesetz auch Forschenden, die schon seit langem besser verstehen wollen, wie die Plattformen ticken und was dringend geändert werden müsste.
https://re-publica.com/de/session/was-heisst-eigentlich-plattformaufsicht-der-praxis-was-der-neue-digitale-dienste
This talk is in: German
Ich sprach beim 135. Netzpolitischen Abend der Digitalen Gesellschaft zu neuen Möglichkeiten für Plattformforschende durch den Digital Services Act und wie AlgorithmWatch sie versucht zu nutzen.
This talk is in: Danish
Was ist wahr – was ist falsch, was ist gefälscht? Bilder und Videos können mittlerweile so bearbeitet werden, dass es schwer oder auch gar nicht zu erkennen ist, dass sie keine Originale sind. Künstliche Intelligenz macht es möglich. Und es soll erst der Anfang sein. Gemeinsam mit Jörg Thadeusz sprach ich über die Gefahren von Fakes.
This talk is in: German
Forum mit Pia Sombetzki, AlgorithmWatch (Organisation & Moderation), Nathalie Schlenzka, Antidiskriminierungsstelle des Bundes, Armand Zorn, Mitglied des Deutschen Bundestag, Kay Schulze, Paritätischer Wohlfahrtsverband - Gesamtverband
Unser Alltag ist zunehmend durchzogen von Algorithmen und Entscheidungen, die automatisch gefällt werden und mitunter über unseren Zugang zu Arbeit, Bildung, Gütern und Dienstleistungen entscheiden. Sie sollen viele Prozesse effizienter machen – ein unreflektierter und intransparenter Einsatz solcher automatisierter Systeme birgt allerdings die Gefahr, Diskriminierung in Entscheidungsprozesse einzuschreiben. Wie aber können wir als Zivilgesellschaft zur Debatte über algorithmische Diskriminierung beitragen und selbst dafür sorgen, Diskriminierung zu verhindern, wo wir Einfluss haben? Wie können wir vorgehen, um diskriminierende Entscheidungssysteme und ihre Folgen zu erkennen und aufzudecken? Wie kann der Rechtsschutz für Betroffene von algorithmischer Diskriminierung gestärkt werden?
https://digital-social-summit.de/session/computer-says-no-was-tun-wenn-algorithmen-diskriminieren/
This talk is in: German
Beim Digitalen Salon sprach ich zu den Gefahren von Gesichtserkennung im öffentlichen Raum.
Ausführliche Veranstaltungsbeschreibung: https://www.hiig.de/events/digitaler-salon-frozen-eye/
This talk is in: German
Panel discussion on “Intersectional Perspectives on Artistic Intelligence”, organized by the Hans Bredow Institute, together with Jun.-Prof. Dr. Katrin Köppert (HS for Graphics and Book Studies Leipzig) and Dr. Nakeema Stefflbauer (Frauenloop).
We discussed the underlying problems in AI technology, negatively impacting marginalized groups in society as well as the possibilities that arise from this. Among those, regulation and the diversification of training data.
In dieser Podcastfolge sprach ich über die folgenden Themen: Was ist algorithmische Diskriminierung? Wie können Personen gegen diese Art der Diskriminierung vorgehen? Und was sind hilfreiche präventive Maßnahmen? Wir sprachen über das Diskriminierungspotenzial von Algorithmen. Denn Algorithmen, KI & andere technischen Programme sind menschengemacht, ergo übernehmen sie deren Vorurteile und Nachlässigkeiten, wenn nicht auf Teilhabe und Vielfalt geachtet wird.
This talk is in: German
Ich erklärte in dieser Podcastfolge von Zurück zum Thema von Detektor.FM wie Systeme automatisierter Entscheidungsfindung in Deutschland besser reguliert werden könnten, um Diskriminierung durch diese vorzubeugen.
This talk is in: German