Wintersemester 2021/22 Diversity and Fairness in Artificial Intelligence
Diversity and Fairness in Artificial Intelligence
Kann künstliche Intelligenz (KI) diskriminieren? Wie kann mit Bias in Maschine Learning Modellen umgegangen werden? Und wie kann eine faire und diversitätssensible KI aussehen?
Mit diesen und weiteren Fragen befasst sich die interdisziplinäre Vortragsreihe „Diversity and Fairness in Artificial Intelligence“, die im Wintersemester 2021/22 unter Leitung von Vizepräsidentin Prof. Dr. Christina Hansen in Zusammenarbeit mit dem Referat Diversity und Gleichstellung stattfindet.
Die Vorträge finden überwiegend dienstags von 18:15 bis 19:45 Uhr via Zoom statt und stehen allen Interessierten offen. Die Vorträge werden teilweise in deutscher, teilweiser in englischer Sprache gehalten.
Programm
Podiumsgäste:
- Prof. Dr. Florian Lemmerich, Universität Passau;
- Miriam Rateike, Max Planck Institute for Intelligent Systems;
- Theresa Tran, Lufthansa Industry Solutions
Moderation: Isabella Graßl, Universität Passau
Die Auftaktveranstaltung wird organisiert vom MINT-Frauennetzwerk der Universität Passau in Kooperation mit Femtec Alumnae e.V..
English language translation will be provided.
Die Ungleichbehandlung gleicher Sachverhalte sowie die Gleichbehandlung ungleicher Sachverhalte geschieht auf individueller Ebene oft unbewusst – und bleibt dabei unerkannt. Selbstlernende Algorithmen, die entsprechende Entscheidungen auswerten, werden aber schnell die zugrundeliegenden Muster erkennen und die entsprechende Schematisierung in die Masse tragen, wo sie offensichtlich werden. Bei trivialen Unterscheidungsmerkmalen lässt sich dies erkennen und korrigieren – allerdings gibt es auch Fälle mittelbarer und verdeckter Diskriminierung, bei denen auch denjenigen, die den Algorithmus überprüfen oder überwachen die Folgen nicht sofort erkennbar sein dürften. Für die Nutzer entsprechender Algorithmen, aber auch für diejenigen, die Vorgaben schaffen oder diese überwachen bzw. nachträglich durchsetzen müssen, stellt sich daher die Frage, wann und wie eine Ungleichbehandlung vorab vermieden werden kann bzw. muss oder umgekehrt eine staatliche Sanktionierung erfolgt oder eine Wiedergutmachung zu leisten ist. Die dahinterstehende Abwägung ist keineswegs trivial: Wenn selbst ein nicht-lernender Algorithmus kann unerkannte (mittelbar) diskriminierende Folgen haben, würde man den Entwicklern bzw. Betreibern kaum einzuhaltende Sorgfaltspflichten auferlegen.
Referent: Prof.Dr. Michael Beurskens
Dieser Vortrag findet auf deutsch statt.
Künstlich intelligente Systeme sind aus unserem Alltag nicht mehr wegzudenken. Sie beeinflussen uns stärker, als es vielen Menschen bewusst ist. Neuartige Methoden des Maschinellen Lernens, insbesondere vielschichtige, künstliche neuronale Netze, haben in den letzten Jahren neuen Produktkategorien wie Sprachassistenten, selbstfahrenden Autos oder Chatbots zu erheblicher Verbreitung verholfen. Vielen Firmen, aber auch Endnutzern ist dabei nicht bewusst, dass diese Systeme nicht frei von Vorurteilen und anfällig gegenüber speziellen Manipulationsversuchen sind, man bezeichnet dies als Bias-Effekte. In meiner Vorlesung hinterfrage ich den Hype um Künstliche Intelligenz (KI) als Heilbringer einer digitalen und automatisierten Gesellschaft kritisch. Anhand aktueller Studien, relevanter Expertenaussagen und einem detaillierten Praxisbeispiel verdeutliche ich, dass neben der Leistungsfähigkeit künstlich intelligenter Systeme andere Qualitätsmerkmale wie die Robustheit gegenüber Diskriminierungstendenzen und ungewolltem Fehlverhalten eine wichtige Rolle einnehmen werden.
Referentin: Claudia Pohlink, Telekom Innovation Laboratories
Dieser Vortrag findet auf deutsch statt.
Natural Language Processing is a branch of computer science that deals with the automated processing of human language, in text or speech data. Typical tasks include, for example, performing automatic spelling and grammar checking, automatically extracting information from large amounts of data (text mining), or performing linguistic communication with a user (e.g., voice control). Machine learning is often used to efficiently overcome such challenges and to provide the computer with the best possible understanding of human language. What happens when social stereotypes are hidden in language models is what this talk deals with. There will also be a brief background on machine learning and bias in AI systems at the beginning.
Referentin: Prof. Dr. Mascha Kurpicz-Briki, Bern University of Applied Sciences
Dieser Vortrag findet auf englisch statt.
Die umfassende Technologisierung verändert die vielen Lebensbereiche des menschlichen Lebens. Mit dem Gebrauch von Technik verändert sich zugleich unser Menschen- und Körperverständnis. Wie beeinflusst Technik, wie wir den Menschen verstehen? Der Vortrag legt einen besonderen Fokus auf das Thema ‚Diversity‘ in der Technologisierung und behandelt es aus anthropologischer und ethischer Perspektive.
Wo mangelt es an Vielfalt in der Technologisierung und wie kann sie gefördert werden? Zum einen wird aufgezeigt, wie mangelnde ‚Diversity‘ eine Herausforderung in Technikprozessen darstellt, zum anderen wird herausgestellt, wie Technik gerade auch eine Chance für mehr ‚Diversity‘ sein kann. Es wird für ein inklusiveres, relationales Menschen- und Körperverständnis plädiert. Neben technikfeministischen Ansätzen und Perspektiven auf ‚Gender‘ und Intersektionalität wird der Blick im Rahmen einer Anthropozentrismuskritik auch auf das Mensch-Tier-Mitwelt-Verhältnis geworfen. In Anlehnung an den Kritischen Posthumanismus und Donna Haraways Figur der „Cyborg“ wird dargestellt, dass es im Zuge der technologischen Entwicklungen zu Grenzverschwimmungen von tradierten Kategorien wie ‚Frau‘–‚Mann‘, ‚Mensch‘–‚Tier‘–‚Maschine‘ oder ‚Natur‘–Kultur‘ kommt.
Referentin: Anna Puzio, Universität Münster, Hochschule für Philosophie München
Dieser Vortrag findet auf deutsch statt.
The lecture will focus on the types of harms brought upon by the development or deployment of narrow AI systems as well as the way those harms are taken into account, both by existing laws and stakeholders (notably businesses). The adopted perspective will mix ethics of AI systems (ethics and philosophy), applied ethics, business and human rights as well as European law.
Referentin: Imane Bello, Institut d’Etudes Politiques de Paris
Dieser Vortrag findet auf englisch statt.
Diskurse um Künstliche Intelligenz sind eng verbunden mit der Projektion von ethnischen und geschlechtlichen Merkmalen auf digitale Technologien. Solche kennen wir aus Klassikern des KI-Filmes ebenso wie aus aktuellen Diskursen über Assistenzsysteme wie Alexa und co., und sie bilden auch einen zentralen Bezugspunkt der feministischen Theorie. Im Rahmen dieser Diskurse werden Dichotomien wie 'Natur vs. Kultur', 'Emotionalität vs. Rationalität' oder 'Macht vs. Ohnmacht' in technischen Kontexten einerseits reproduziert, anderseits jedoch auch unterlaufen, was Gelegenheiten zu ihrer kulturellen Neuverhandlung bereithält. Entsprechend wird der Vortrag mit einem Blick auf entsprechende Topoi im KI-Film beginnen, diese mit poststrukturalistischer Theoriebildung kontrastieren und auf dieser Grundlage die medialen Interfaces von KI in Alltagskontexten (Beruf, Pflege, Familie) sowie ihre Vermarktung kritisch diskutieren. Ein besonderes Augenmerk wird auf der Frage liegen, was Reflexionskompetenz in diesem Zusammenhang bedeuten könnte.
Referent: Dr. Martin Hennig, Universität Tübingen
Dieser Vortrag findet auf deutsch statt.
Beim MINT Frauennetzwerktreffen am 24.1.2022 diskutieren wir gemeinsam mit Die Juristinnen* und externen Rechtsexpertinnen, Schnittstellen zwischen Legal Tech und KI, die Beeinflussung der KI in der Legal Branche sowie über KI und Ethik. Ein besonders Augenmerk wird zudem auf dem Thema Diskriminierung durch KI liegen, wobei insbesondere Diskriminierung von Frauen durch KI besonders in den Blick genommen werden wird. Zudem wollen wir über Möglichkeiten, eine feministische KI zu gestalten sprechen und hierüber mit allen Teilnehmerinnen in den Austausch kommen. Gerne können vorab Fragen per E-Mail an das MINT Frauennetzwerk geschickt werden, die wir im Zuge der virtuellen Veranstaltung zu beantworten versuchen werden.
Anmeldung für Teilnehmerinnen der Universität Passau per StudIP, externe Anmeldungen bitte an: mint-frauen@uni-passau.de.
Diese Veranstaltung findet auf deutsch statt.
Datengetriebene Technologien bestimmen unseren Alltag. Hierbei spielen Big Data Analytics und Künstliche Intelligenz eine Schlüsselrolle. Können Algorithmen zu mehr Fairness oder Diskriminierung beitragen? Und welche Rolle spielt Diversity in der Künstlichen Intelligenz, um inklusive Technologien zu entwickeln? Diese und weitere Fragen wird Mina Saidze, Forbes 30 under 30 Gründerin von Inclusive Tech, beantworten als auch Beispiele aus der Praxis vorstellen.
Referentin: Mina Saidze, Gründerin von Inclusive Tech
Anwendungen und Produkte mit Künstlicher Intelligenz beeinflussen bereits den Alltag von Millionen von Menschen, z.B. durch die Verwendung von Sprach-Assistenten oder durch Vorschläge beim Online-Shopping. KI-Tools und -Dienste empfehlen medizinische Behandlungen, übersetzen Dokumente in hunderte von Sprachen, entscheiden über Kredite, geben Empfehlungen beim Anwerben von Mitarbeitern, beim Wiedereingliedern von Arbeitslosen in den Arbeitsmarkt oder machen Vorhersagen über die Rückfälligkeit von Straftätern, um nur einiges zu nennen. Viele dieser Systeme zielen auf eine größere Objektivität, als man sie von menschlichen Entscheider*innen in der Vergangenheit erwarten konnte. Einige dieser Systeme erfüllen durchaus ihren Zweck. Mittlerweile ist aber bekannt, dass mehrere KI-Systeme z.B. Menschen mit dunkler Hautfarbe oder aufgrund des Geschlechts diskriminieren oder in der Vergangenheit diskriminiert haben.
Oft liegt das Problem in falschen oder fehlenden Trainingsdaten, an unzureichenden Tests oder in mangelnder Qualitäts-Kontrolle. Eine Studie des New Yorker AI Now Instituts aus 2019 kommt darüber hinaus zu dem Schluss, dass die KI-Branche in einer Diversitätskrise steckt. In der Studie wird befürchtet, dass die Entwickler der KI-Systeme ihre Vorurteile unbewusst fortschreiben. Diskriminierung von Minderheiten und Frauenfeindlichkeit finden sich nicht nur in der Zusammensetzung der Entwickler-Teams oder in der Kultur der Unternehmen, sondern auch in den Systemen selbst. Als Beispiel für Frauenfeindlichkeit werden hier neben Gesichtserkennungssoftware Sprach-Assistenzsysteme wie Amazons Alexa, Apples Siri oder Googles Assistant betrachtet. Ein Unesco Bericht aus 2019 kommt bezügliche der Sprach-Assistentinnen zu folgender Aussage: „Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld, Unterwürfigkeit und wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu weiblichen Eigenschaften machen. Auch ist noch vollkommen unklar, wie sich Sprachassistenten langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken.“
Wissenschaftliche Untersuchungen von KI-Systemen und sich daraus ergebende Hinweise auf Fehlinterpretationen oder problematische Entscheidungen durch KI-Systeme haben bereits zu einigen Verbesserungen geführt. Nicht immer sind die Vorschläge algorithmischer Entscheidungssysteme für die Betroffenen nachvollziehbar. Immer öfter wird deshalb Transparenz und Fairness der Systeme gefordert. Nicht zuletzt zielen auch die Regulierungsvorschläge der EU Kommission in diese Richtung. KI-Systeme selbst können nicht zwischen sinnvollen und sinnlosen Ergebnissen, zwischen fairen und diskriminierenden Resultaten unterscheiden. Sie haben kein Bewusstsein und können nicht in einem größeren gesellschaftlichen, politischen oder humanitären Kontext „denken“. Es reicht daher nicht aus, die Lösung der Probleme alleine den Tech-Firmen zu überlassen. Diese Fragen betreffen nicht nur die Tech-Industrie, Regierungen oder NGOs. Damit KI-Systeme zum Wohl der Menschheit eingesetzt werden, braucht es die kritische Stimme jedes Einzelnen, jeder Einzelnen, deren Leben KI-Tools und -Dienste beeinflussen.
Referentin: Prof. Dr. Gudrun Schiedermeier, Hochschule Landshut
Informationen zu den Referent*innen:
Die Ringvorlesung wird gefördert von Frau Prof. Dr. Christina Hansen, Vizepräsidentin der Universität Passau.