Vertrauenswürdige KI

Künstliche Intelligenz (KI) hat das Potenzial, die Gesellschaft voranzubringen, allerdings nur, wenn sie verantwortungsvoll entwickelt und eingesetzt wird. Während KI die Möglichkeit bietet, verschiedene Bereiche in Industrie und Gesellschaft zu optimieren, kann sie auch zu Diskriminierung führen, beispielsweise wenn ein KI-basiertes System bei der Vergabe von Arbeitsplätzen und Krediten eingesetzt wird. Die Wissenschaft steht daher nicht nur vor der Aufgabe, die Vorhersageleistung von KI-Algorithmen zu optimieren, sondern auch ethische und rechtliche Grundsätze in ihre Entwicklung, ihr Training und ihren Einsatz einzubeziehen. Verantwortung in der KI ist mehr als eine technische Frage, sondern eine Lösung, die interdisziplinäre Zusammenarbeit, ethische Prüfung und einen menschenzentrierten Ansatz erfordert.

ZDNI Logo

Zukunftslabor Gesellschaft und Arbeit

Das Zukunftslabor Gesellschaft & Arbeit erforscht die arbeitsbezogenen Folgen und Wirkungen der Digitalisierung, die Möglichkeiten, Konzepte und Voraussetzungen für die Gestaltung digitaler Arbeitswelten, die Auswirkungen künstlicher Intelligenz (KI) auf Organisationsprozesse sowie den wirtschaftspolitischen und regulatorischen Rahmen. So vielfältig wie seine Forschungsfelder sind daher auch die beteiligten Wissenschaftler aus den sozialen, wirtschaftlichen, juristischen und technischen Bereichen.

Am L3S koordinieren wir das Projekt und erforschen speziell die Repräsentativität von Daten und Modellen in KI-Algorithmen.

Ausgangssituation

Die Digitalisierung hat bereits in den verschiedensten Lebensbereichen Einzug gehalten, und die Vernetzung der digitalen Welt in der modernen Gesellschaft und am Arbeitsplatz von morgen schreitet unaufhaltsam voran. Daher ist es umso wichtiger, schon jetzt das Potential, aber auch die Herausforderungen neuer, disruptiver Technologien identifizieren und bewerten zu können.

Die Repräsentativität von Daten und Modellen wurde in jüngster Zeit wiederholt in Frage gestellt, etwa als Folge von unfairen und diskriminierenden oder auch unzuverlässigen Entscheidungen datengetriebener KI-Algorithmen. Daraus ergibt sich die Notwendigkeit, die Qualität von Daten und Modellen bewerten zu können, bevor diese in der Praxis eingesetzt und genutzt werden.

Lösung / Vision

Um die vielfältigen Facetten der Digitalisierung richtig einordnen und erforschen zu können, tauschen sich Forscher aus sozialen, wirtschaftlichen, juristischen und technischen Bereichen aus. So können die Beteiligten des Zukunftslabors die Bedarfe einer digitalisierten Gesellschaft und Arbeitswelt rechtzeitig erkennen und angemessen bewerten.

Am L3S entwickeln wir dazu mathematische und statistische Methoden zur Bewertung von auf Daten und Modellen beruhenden Entscheidungen. Theoretisch und empirisch erforschen wir Merkmale wie Fairness, Robustheit und Erklärbarkeit KI-basierter Modelle, um die Repräsentativität aller zugrundeliegenden Faktoren evaluieren zu können. Ziel ist es dabei, die Qualität von Entscheidungen im Vorhinein bewerten zu können, damit KI im Alltag ein zuverlässiges, vertrauenswürdiges und unterstützendes Werkzeug für die Gesellschaft in und außerhalb der Arbeitswelt sein kann

Monty-Maximilian Zühlke, Koordinator des Zukunftlabors für Gesellschaft und Arbeit spricht über Repräsentativität von Daten und Modellen in KI-Algorithmen.

No Bias

Unvoreingenommene intelligente Entscheidungen – NoBIAS

Künstliche Intelligenz (KI) bietet ein enormes Potenzial in vielen Bereichen der Wirtschaft und des Lebens. Dabei können KI-basierte Entscheidungssysteme weitreichende Auswirkungen auf den Einzelnen und die Gesellschaft haben. Ihre Entscheidungen bergen oft auch Risiken für alle, z. B. die Verweigerung eines Kredits, eines Arbeitsplatzes, einer medizinischen Behandlung oder bestimmter Nachrichten. Es hat sich gezeigt, dass viele KI-gestützte Systeme zu verschiedenen Verzerrungen neigen, die oft zu unzureichender Leistung und ungerechter Behandlung von Menschen führen.

Ausgangssituation

Vorurteile können in allen Phasen von KI-gestützten Entscheidungsprozessen auftreten:

  • bei der Datenerfassung,
  • bei der Umwandlung von Daten in Entscheidungskapazitäten durch Algorithmen oder
  • bei der Verwendung der Ergebnisse der Entscheidungsfindung in Anwendungen.


Daher ist es notwendig, über die traditionellen, auf Vorhersageleistung optimierten KI-Algorithmen hinauszugehen und ethische und rechtliche Grundsätze in das Training, die Entwicklung und den Einsatz von KI-Algorithmen einzubinden, um das soziale Wohl zu gewährleisten und gleichzeitig vom Potenzial der KI zu profitieren.

Lösung / Vision

NoBIAS entwickelt neuartige Methoden für eine unvoreingenommene KI-gestützte Entscheidungsfindung, indem ethische und rechtliche Erwägungen bei der Entwicklung technischer Lösungen berücksichtigt werden. Die Hauptziele von NoBIAS bestehen darin, die rechtlichen, sozialen und technischen Herausforderungen der Voreingenommenheit bei der KI-Entscheidungsfindung zu verstehen, ihnen durch die Entwicklung fairnessbewusster Algorithmen entgegenzuwirken, die KI-Ergebnisse automatisch zu erklären und den Gesamtprozess im Hinblick auf Datenherkunft und Transparenz zu dokumentieren.

NoBIAS bildet eine Gruppe von 15 ESRs (Early-Stage Researchers) aus, die sich durch multidisziplinäre Ausbildung und Forschung in den Bereichen Informatik, Datenwissenschaft, maschinelles Lernen, Recht und Sozialwissenschaft mit Problemen der Voreingenommenheit befassen. Die ESRs werden praktisches Fachwissen in einer Vielzahl von Sektoren wie Telekommunikation, Finanzen, Marketing, Medien, Software und Rechtsberatung erwerben, um die Einhaltung von Rechtsvorschriften und Innovationen auf breiter Basis zu fördern. Technische, interdisziplinäre und soziale Kompetenzen geben den ESRs einen Vorsprung auf zukünftige Führungspositionen in der Industrie, der Wissenschaft oder der Regierung.

xAIM Medicine and AI

Masterstudiengang verbindet vertrauenswürdige KI und Medizin

Künstliche Intelligenz hat ein großes Potential im medizinischen Bereich (siehe Personalisierte Medizin). Doch gerade hier sind viele ethische und rechtliche Fragen sowie soziale Folgen zu bedenken.

Ausgangssituation

Um diese Fragen diskutieren zu können und Risiken zu minieren, sollten ethische KI-Strategien verfolgt und vertrauenswürdige KI angewandt werden. Darüber hinaus ist es wichtig, hochqualifiziertes Personal aus dem Gesundheitswesen auszubilden, um dem Mangel an spezialisierten digitalen Fähigkeiten im Bereich KI entgegen zu wirken.

Lösung / Vision

Im Projekt xAIM (eXplainable Artificial Intelligence in healthcare Management) entwickeln wir zusammen mit Partnern der Universitäten Pavia, Keele, Ljubljana und der Goethe-Universität Frankfurt einen Masterstudiengang, der sich der Anwendung von erklärbarer KI im Gesundheitswesen widmet und besonders Menschen aus diesem Bereich ansprechen soll. Der Online-Studiengang soll an der Universität Pavia (Italien) angeboten werden und für die Studierenden ein internationales und interdisziplinäres Umfeld schaffen zwischen Datenwissenschaft, Künstlicher Intelligenz und Gesundheitswesen. Studierende werden die Grundlagen von maschinellem Lernen und Datenwissenschaft erlernen, um mit großen und heterogenen Datensätzen, wie sie im medizinischen Umfeld typisch sind, umgehen zu können. Daneben werden Konzepte aus dem Gesundheitswesen gelehrt, um die Studierenden zu befähigen, sowohl die Daten als auch die Ergebnisse der Analysen zu verstehen und zu interpretieren. Darüber hinaus legt der Studiengang großen Wert darauf, dass Studierende lernen, ethische und soziale Implikationen sowie Risiken der Anwendungen von KI zu erkennen und zu diskutieren und einen guten Umgang damit zu finden.

BIAS

Ethische, rechtliche und technische Perspektiven auf KI – BIAS

KI-Techniken, die auf großen Datenmengen und algorithmischer Verarbeitung basieren, werden zunehmend eingesetzt, um Entscheidungen in wichtigen gesellschaftlichen Bereichen zu leiten. Sie werden von Suchmaschinen, Internet-Empfehlungssystemen und Social Media Bots eingesetzt und beeinflussen unsere Wahrnehmung von politischen Entwicklungen und sogar von wissenschaftlichen Erkenntnissen.

Ausgangssituation

Die Sorge um die Qualität von KI-Evaluierungen und Vorhersagen wächst. Insbesondere gibt es starke Hinweise darauf, dass Algorithmen manchmal bestehende Verzerrungen und Diskriminierungen verstärken und nicht beseitigen können. Das kann sich negativ auf den sozialen Zusammenhalt und die demokratischen Institutionen auswirken.

Lösung / Vision

In der Forschungsgruppe BIAS führen Expertinnen und Experten der Leibniz Universität Hannover die erkenntnistheoretischen sowie ethischen, rechtlichen und technischen Perspektiven zusammen. Die Volkswagen-Stiftung fördert die fakultätsübergreifende Forschungsinitiative im Rahmen der Ausschreibung „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“. Die Kernidee: Philosophen analysieren die ethische Dimension von Konzepten und Prinzipien im Kontext der KI (Voreingenommenheit, Diskriminierung, Fairness). Juristen untersuchen, ob sich die Prinzipien adäquat in den einschlägigen rechtlichen Rahmenbedingungen wiederfinden (Datenschutz, Verbraucher-, Wettbewerbs-, Antidiskriminierungsrecht). Und Informatiker entwickeln konkrete technische Lösungen, um Diskriminierung zu erkennen und mit Debiasing-Strategien zu beheben.

Neben Wissenschaftlern des Instituts für Philosophie ist das L3S an BIAS beteiligt. Sie alle eint das Verständnis, dass nicht nur Algorithmen, sondern das gesamte System von Computerprognosen und menschlichen Entscheidungen unvoreingenommen und nichtdiskriminierend sein sollte. Sie nehmen daher den gesamten Entscheidungsprozess und nicht nur einzelne Komponenten ins Visier.

PhD Programm

Promotionsprogramm: Verantwortungsvolle KI

Im Rahmen der Digitalisierung wirken Technologien der Künstlichen Intelligenz (KI) als treibende Kraft. Aufgrund ihrer enormen gesellschaftlichen Relevanz ist ein verantwortungsvoller Umgang mit KI von besonderer Bedeutung. Dies muss sich auch in der Forschung widerspiegeln.

Ausgangssituation

Die Erforschung und Anwendung verantwortungsvoller KI ist eine sehr junge Disziplin und erfordert die Bündelung von Forschungsaktivitäten aus unterschiedlichsten Disziplinen, um KI Systeme zuverlässig, transparent, sicher und rechtlich akzeptabel zu gestalten und anzuwenden.

Lösung / Vision

Das Promotionsprogramm adressiert die interdisziplinären Forschungsherausforderungen im Rahmen von 14 transdisziplinären Promotionen. Organisiert in vier Clustern, erforschen Stipendiaten/innen die drängendsten Forschungsfragen in den Bereichen Qualität, Haftung, Interpretierbarkeit, verantwortungsvollem Umgang mit Informationen und der Anwendung von KI. Das innovative, zielorientierte und international ausgerichtete Betreuungskonzept und erfahrene PI-Team unterstützt die Stipendiaten*innen bei exzellenter Forschung.