Zum Inhalt springenZur Suche springen

Digitalisierungsforschung

Wie jede technologische Revolution, so bergen auch die Digitalisierung und die zunehmende Verbreitung von KI-Systemen nicht nur große Chancen, sondern auch große Risiken. Als solche gelten beispielsweise die Datensicherheit, die durch die Sammlung, Zusammenführung und Analyse unzähliger Datenspuren in nahezu allen Lebensbereichen salient wird. Ebenso rücken Fragen der Ethik und der Fairness vor dem Hintergrund diskriminierender Algorithmen in den Fokus. Dennoch scheint die Übernahme von zahlreichen Aufgaben und Entscheidungen durch KI-Systeme weitgehend unkritisch gesehen zu werden, betrachtet man die Bereitschaft gerade vieler junger Menschen, ihre persönliche Daten zur Verfügung zu stellen. Das ist keineswegs selbstverständlich, im Gegenteil, es ist hochgradig erklärungsbedürftig. Woran liegt es, dass viele Menschen die Gefahren der Digitalisierung entweder gar nicht wahrnehmen oder als vernachlässigbare Kollateralschäden abbuchen? Unter welchen Bedingungen verändern sich Einstellungen gegenüber der Digitalisierung und wann werden sie handlungsrelevant? (Wie) Können sozial-verantwortliche KI-Systeme gestaltet werden? Wie fair werden algorithmische Entscheidungen wahrgenommen? Dies sind einige zentrale Fragen, die in diesem Forschungsfeld adressiert werden. Die Forschungen in diesem Bereich liefern notwendiges Grundlagenwissen für das übergeordnete Ziel der Sicherung und Stärkung von Demokratie in der digitalen Gesellschaft.

Projekte

Meinungsmonitor Künstliche Intelligenz [MeMo:KI]

04/2021 – 03/2024

Drittmittelprojekt

Stiftung Mercator

Künstliche Intelligenz (KI) scheint sich Ende der 2010er Jahre wieder in einem KI-Frühling zu befinden. Es wird ihr vielfach ein immenses Veränderungspotenzial für diverse Gesellschaftsbereiche beigemessen, welches Chancen wie auch Risiken umfasst. In politischen Strategiepapieren wird eine am Menschen orientierte KI-Gestaltung als Ziel ausgegeben, die Prinzipien der Sozial- und Demokratieverträglichkeit folgt. Basierend auf einer polit-ökonomischen Annahme geht das Projekt davon aus, dass die Zielerreichung nur unter einer Politisierung des Themas zu erreichen ist. Daher beobachtet das Projekt die Entwicklung der öffentlichen und veröffentlichten Meinung zum Thema mithilfe von regelmäßigen Bevölkerungsbefragungen, manuellen und automatisierten Medieninhaltsanalysen sowie Analysen des Social Media Diskurses zum Thema. Die Daten werden einer breiten Öffentlichkeit auf der Projektwebseite zur Verfügung gestellt.

Projektwebseite: cais-research.de/forschung/memoki

Prof. Dr. Frank Marcinkowski, Pero Došenović, Kimon Kieslich

In Forschungspartnerschaft mit dem Center for Advanced Internet Studies (CAIS)

Wissenschaftskommunikation: Dr. Esther Laukötter (CAIS)

Responsible Academic Performance Prediction [RAPP]

03/2021 – 02/2024

Drittmittelprojekt

Bundesministerium für Bildung und Forschung (BMBF)

Academic Performance Prediction (APP) Systeme, also Systeme zur Leistungsvorhersage, als unterstützende KI-Systeme in der Hochschulbildung versprechen die frühzeitige Erkennung von potentiellen Misserfolgen und sollen damit einen gezielten Ressourceneinsatz der Hochschule ermöglichen. Durch diese individuellen Unterstützungsmaßnahmen soll so der Studienerfolg erhöht werden. Allerdings wird einer am Lehrstuhl durchgeführten Studie zufolge der Einsatz KI-basierter Systeme von Studierenden der Heinrich-Heine-Universität, soweit eigene Daten und eigene Planungen betroffen sind, als problematisch betrachtet. Dies stellt ein ernsthaftes Hindernis für den Einsatz und den Erfolg solcher Systeme dar. 

Ziel dieses interdisziplinären Projektes (in Zusammenarbeit mit der Soziologie und der Informatik) ist daher ein sozial verträglicher Einsatz von KI-Systemen, wobei ethische Aspekte und deren Wahrnehmung durch die Betroffenen erforscht werden sollen. Hierzu wird durch unsere Kollegen aus der Informatik ein KI-System zur Academic Performance Prediction entwickelt, in dem durch eine regelbasierte Erklärungskomponente für die Betroffenen eine weitgehende Transparenz geschaffen wird. Gleichzeitig fokussieren wir uns bei der Arbeit an unserem Lehrstuhl auf den Einsatz dieses Systems, die erforderlichen Daten zur Vorhersage nach technischen und ethischen Gesichtspunkten und die Wahrnehmung durch die Studierenden, die wir in Labor- und Feldexperimenten untersuchen. Hieraus sollen letztendlich Handlungsempfehlungen in Zusammenarbeit mit den verantwortlichen Stellen in der Hochschule für den Einsatz solcher Systeme abgeleitet werden.

 

Projektwebseite: tba

Prof. Dr. Frank Marcinkowski, Birte Keller, Dr. Marco Lünich

in interdisziplinärer Zusammenarbeit mit Prof. Dr. Stefan Conrad (Informatik, HHU), Prof. Dr. Michael Leuschel (Informatik, HHU), Prof. Dr. Ulrich Rosar (Soziologie, HHU), Dr. Johannes Krause (Soziologie, HHU), Dr. Christopher Starke (Kommunikationswissenschaft, Universität Amsterdam)

Über die Legitimation der Einführung künstlich intelligenter Systeme [Arbeitstitel]

03/2021 – voraussichtlich 2025

Dissertationsprojekt

 

Das Promotionsvorhaben beschäftigt sich mit der Frage, wie eine Legitimation für den Einsatz von künstlich intelligenten (KI) Systemen geschaffen wird, obwohl diese Technologie so viele Risiken birgt. In der wissenschaftlichen Literatur wird dabei häufig über die Frage der Gestaltung von KI-Systemen diskutiert und zahlreiche ethische Richtlinien zum algorithmischen Design entwickelt. Vor dem Hintergrund diverser bekannter Risiken (z. B. Diskriminierung, Datensicherheit, fehlende menschliche Autonomie) ist es jedoch verwunderlich, dass lediglich die Frage nach dem "wie", nicht aber nach dem "ob" gestellt wird. Daher wird die Soziologie der Rechtfertigung als theoretische Fundierung der Arbeit herangezogen, um die Rechtfertigungsgrundlage, mit der ein Einsatz von KI-Systemen legitimiert werden soll, zunächst theoretisch und anschließend empirisch zu beleuchten. Als exemplarischer Anwendungsfall wird dafür die Hochschule als Einsatzort der KI gewählt.

Birte Keller

Der Glaube an Big Data

09/2014 – 08/2020

abgeschlossenes Dissertationsprojekt

 

Das Aufkommen der digitalen Gesellschaft geht einher mit wirkmächtigen Narrativen wie etwa der Wissensgesellschaft. In diesem Zusammenhang wird die Möglichkeit der Sammlung und Auswertung von großen digitalen Datenbeständen betont, den Big Data. Mit Big Data verbinden sich Erwartungen für die gesellschaftliche Erkenntnisproduktion und hieraus gezogenen Nutzen. In der Fachliteratur wird vermutet, dass die Überzeugung von den Konsequenzen einer Quantifizierung der Welt und des Sozialen auch in den Köpfen der Menschen verfängt und einstellungsrelevant wird. Die Dissertation geht in zwei aufeinander aufbauenden Studien der Annahme verbreiteter Glaubensüberzeugungen von der Qualität und Wirkmächtigkeit der Digitaldaten nach und analysiert kollektive Überzeugungen von Erkenntnis‐ und Nutzengewinnen aus Big Data. Hierzu wird die Messung eines Big‐Data‐ Glaubenssystems (BDGS) für die standardisierte Befragungsforschung entworfen und getestet. Durch Einsatz dieses Untersuchungsinstruments in diversen Forschungszusammenhängen des Einsatzes von Technologien Künstlicher Intelligenz wird geprüft, inwieweit das Vorhandensein des BDGS Einstellungen gegenüber Phänomenen der Digitalisierung erklärt.

Die Dissertation wurde 2022 im Springer Verlag unter dem Titel “Der Glaube an Big Data. Eine Analyse gesellschaftlicher Überzeugungen von Erkenntnis- und Nutzengewinnen aus digitalen Daten” veröffentlicht.

Dr. Marco Lünich

Fair Artificial Intelligence Reasoning (FAIR)

05/2019 – 04/2020

abgeschlossenes Drittmittelprojekt

VolkswagenStiftung

Ziel des abgeschlossenen “Fair Artificial Intelligence Reasoning (FAIR)”-Projekts in der Förderlinie “Künstliche Intelligenz und ihr Einfluss auf die Gesellschaft von morgen” der VolkswagenStiftung war Entscheidungen, die auf Künstlicher Intelligenz (KI) basieren in Bezug auf Fairness zu untersuchen. Das Projekt nahm dabei den Anwendungsbereich der Hochschule in den Blick. Zum einen ist in diesem Bereich mit einem Zuwachs an potenziellen KI-Anwendungen zu rechnen. Zum anderen besteht eine große Diskriminierungsgefahr, wenn Algorithmen Einfluss auf die Zukunft von Studierenden nehmen, indem sie beispielsweise über ihre Studienzulassung oder ihre Noten entscheiden. In der Zusammenarbeit mit Informatikern und Soziologen der Heinrich-Heine-Universität Düsseldorf wurde zunächst eine gemeinsame Arbeitsdefinition für faire KI erarbeitet, indem die relevante wissenschaftliche Literatur aus den Sozialwissenschaften sowie der Informatik systematisch aufbereitet wurde. Zudem wurden mögliche Anwendungsbereiche, in denen faire Algorithmen im Hochschulkontext salient werden, identifiziert. Diese Bestrebungen dienten als Grundlage für das erfolgreich eingeworbene RAPP-Projekt.

Prof. Dr. Frank Marcinkowski, Janine Baleis, Birte Keller, Dr. Christopher Starke

in interdisziplinärer Zusammenarbeit mit Prof. Dr. Stefan Conrad (Informatik, HHU), Prof. Dr. Stefan Harmeling (Informatik, HHU), Prof. Dr. Michael Leuschel (Informatik, HHU), Prof. Dr. Ulrich Rosar (Soziologie, HHU)

Verantwortlichkeit: