Aktuelles
Vergleichende KI-Risikowahrnehmung von Studierenden und der Bevölkerung - Neue Publikation in Computer and Education: Artificial Intelligence
Lünich, M., Keller, B. & Marcinkowski, F. (2024). Diverging Perceptions of Artificial Intelligence in Higher Education: A Comparison of Student and Public Assessments on Risks and Damages of Academic Performance Prediction in Germany. Computers and Education: Artificial Intelligence, 7, 1-15. https://doi.org/10.1016/j.caeai.2024.100305
The integration of Artificial Intelligence (AI) into higher education, particularly through Academic Performance Prediction (APP), promises enhanced educational outcomes. However, it simultaneously raises concerns regarding data privacy, potential biases, and broader socio-technical implications. Our study, focusing on Germany–a pivotal player in shaping the European Union’s AI policies–seeks to understand prevailing perceptions of APP among students and the general public. Initial findings of a large standardized online survey suggest a divergence in perceptions: While students, in comparison to the general population, do not attribute a higher risk to APP in a general risk assessment, they do perceive higher societal and, in particular, individual damages from APP. Factors influencing these damage perceptions include trust in AI and personal experiences with discrimination. Students further emphasize the importance of preserving their autonomy by placing high value on self-determined data sharing and explaining their individual APP. Recognizing these varied perceptions is crucial for educators, policy-makers, and higher education institutions as they navigate the intricate ethical landscape of AI in education. This understanding can inform strategies that accommodate both the potential benefits and concerns associated with AI-driven educational tools.
Zwei Vorträge auf der ACM Conference on Fairness, Accountability, and Transparency (FAccT '24) in Brasilien - aktuell publiziert
Mitarbeitende des Lehrstuhls stellten zwei Paper auf der 7. Konferenz der ACM FAccT vor, die vom 03. - 06. Juni in Rio de Janiero, Brasilien stattfand.
Im ersten Paper untersuchen Kimon Kieslich und Marco Lünich die Forderung nach der Regulierung biometrischer Fernidentifikation in der deutschen Gesellschaft. In einem faktoriellen Survey werden dabei die Effekte des Vertrauens in KI und in das Strafverfolgungssystem sowie von Diskriminierungswahrnehmungen auf die Befürwortung der Regulierung in vier verschiedenen Anwendungsfällen analysiert.
Im zweiten Paper beschäftigen sich Marco Lünich und Birte Keller mit studentischen Fairnesswahrnehmungen gegenüber KI-basierten Leistungsprognosesystemen. Auch in dieser Studie wurde ein faktorielles Survey-Design gewählt, um mit den Faktoren der Genauigkeit und Komplexität den Einfluss verschiedener Ausprägungen von Entscheidungsbäumen, die zur studentischen Leistungsprognose eingesetzt werden, auf die informationelle und distributive Fairnesswahrnehmung von Studierenden zu analysieren. Zusätzlich wurden die Rollen des Verständnisses des Kausalzusammenhangs der Entscheidungsfindung (Causability) und die Höhe des institutionellen Vertrauens als mediierende bzw. moderierende Faktoren berücksichtig.
Beide Paper wurde im Anschluss an die Konferenz publiziert:
Kieslich, K. & Lünich, M. (2024). Regulating AI-Based Remote Biometric Identification. Investigating the Public Demand for Bans, Audits, and Public Database Registrations. In ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT ’24), 3–6 Juni , 2024, Rio de Janeiro, Brasilien. https://doi.org/10.1145/3630106.3658548
Lünich, M. & Keller, B. (2024). Explainable Artificial Intelligence for Academic Performance Prediction. An Experimental Study on the Impact of Accuracy and Simplicity of Decision Trees on Causability and Fairness Perceptions. In ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT ’24), 3–6 Juni, 2024, Rio de Janeiro, Brasilien. https://doi.org/10.1145/3630106.3658953
Über die studentische Fairnesswahrnehmung verschiedener Verteilungsnormen - Neue Publikation in Technology, Knowledge & Learning
Lünich, M., Keller, B. & Marcinkowski, F. (2023). Fairness of Academic Performance Prediction for the Distribution of Support Measures for Students: Differences in Perceived Fairness of Distributive Justice Norms. Technology, Knowledge and Learning. https://doi.org/10.1007/s10758-023-09698-y
Artificial intelligence in higher education is becoming more prevalent as it promises improvements and acceleration of administrative processes concerning student support, aiming for increasing student success and graduation rates. For instance, Academic Performance Prediction (APP) provides individual feedback and serves as the foundation for distributing student support measures. However, the use of APP with all its challenges (e.g., inherent biases) significantly impacts the future prospects of young adults. Therefore, it is important to weigh the opportunities and risks of such systems carefully and involve affected students in the development phase. This study addresses students’ fairness perceptions of the distribution of support measures based on an APP system. First, we examine how students evaluate three different distributive justice norms, namely, equality, equity, and need. Second, we investigate whether fairness perceptions differ between APP based on human or algorithmic decision-making, and third, we address whether evaluations differ between students studying science, technology, engineering, and math (STEM) or social sciences, humanities, and the arts for people and the economy (SHAPE), respectively. To this end, we conducted a cross-sectional survey with a 2 3 factorial design among n = 1378 German students, in which we utilized the distinct distribution norms and decision-making agents as design factors. Our findings suggest that students prefer an equality-based distribution of support measures, and this preference is not influenced by whether APP is based on human or algorithmic decision-making. Moreover, the field of study does not influence the fairness perception, except that students of STEM subjects evaluate a distribution based on the need norm as more fair than students of SHAPE subjects. Based on these findings, higher education institutions should prioritize student-centric decisions when considering APP, weigh the actual need against potential risks, and establish continuous feedback through ongoing consultation with all stakeholders.
KI | Konflikte | Konventionen – PolKomm-Tagung 2023 in Düsseldorf
Die diesjährige Gemeinsame Jahrestagung der Fachgruppe „Kommunikation und Politik“ der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK), des Arbeitskreises „Politik und Kommunikation“ der Deutschen Vereinigung für Politische Wissenschaft (DVPW) und der Fachgruppe „Politische Kommunikation“ der Schweizerischen Gesellschaft für Kommunikations‐ und Medienwissenschaft (SGKM) wird vom Düsseldorf Institute for Internet and Democracy (DIID) an der Heinrich-Heine-Universität Düsseldorf unter Beteiligung von Marco Lünich organisiert und findet vom 28. bis 30. Juni 2023 im Haus der Universität statt. Im Fokus der Tagung steht der Metatrend der vorschreitenden Digitalisierung in der politischen Kommunikationsforschung unter dem Titel "KI | Konflikte | Konventionen".
Mit Marco Lünich und Birte Keller werden gleich zwei Mitarbeitende des Lehrstuhls mit Vorträgen auf der Tagung vertreten sein. Während sich Marco Lünich in seinem Vortrag mit der Zeitlichkeit von Daten und evidenzbasierten politischen Kommunikations- und Entscheidungsprozessen sowie deren Problematisierung, Theoretisierung & Desiderata beschäftigt, wird Birte Keller eine Dokumentenanalyse bildungspolitischer Rechtfertigungen des Einsatzes künstlich intelligenter Systeme vorstellen.
Eine Anmeldung zur Tagung ist noch bis zum 21. Juni 2023 möglich.
Anstehende Präsentation auf diesjähriger Learning AID-Tagung im August in Bochum
Marco Lünich, Birte Keller und Frank Marcinkowski werden auf der diesjährigen Tagung Learning Analytics, Artificial Intelligence und Data Mining in der Hochschulbildung (Learning AID) vom 28.-29. August in Bochum im Rahmen der Session 'Datenschutz, Ethik und Policy' einen Vortrag mit dem Titel "Die studentische Wahrnehmung von Learning Analytics und ihre Konsequenzen für Einstellungen, Präferenzen und Verhaltensintentionen am Beispiel von Academic Performance Prediction - Ergebnisse einer Repräsentativbefragung und Implikationen für die Einführung von KI an der Hochschule" halten.
Mitarbeitende des Lehrstuhls präsentieren Vorträge auf der 68. Jahrestagung der DGPuK vom 18.-20. Mai 2023
Mitarbeitende des Lehrstuhls präsentieren zwei Vorträge auf der 68. Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuK), die zwischen den 18.-20. Mai 2023 in Bremen stattfinden wird.
Albina Maxhuni, Marco Lünich, Birte Keller und Frank Marcinkowski werden einen Vortrag mit dem Titel "Hegemoniale Technologieimplementierung an der Hochschule - Eine qualitative Analyse der Schadenswahrnehmung betroffener Studierender bei der Einführung von Dropout Detection" auf der Konferenz präsentieren. Kern des Vortrags ist die Präsentation der Ergebnisse einer qualitativen Inhaltsanalyse, welche studentische Wahrnehmungen gegenüber Leistungsprognosesystemen an Hochschulen in den Blick nimmt und untersucht, welche technischen und sozialen sowie individuellen und gesellschaftlichen Gefahren, die von entsprechenden KI-Anwendungen ausgehen können, von den Betroffenen befürchtet werden.
Zudem präsentieren Jule Roth, Marco Lünich und Christopher Starke einen Vortrag, der die Erkenntnisse einer empirischen Studie zur Legitimationswahrnehmung algorithmischer Entscheidungsprozesse vorstellt. Der Vortragstitel lautet: "Mit KI durch die Krise? Legitimationsperzeptionen von KI-unterstützten energiepolitischen Entscheidungsprozessen".
Neue Publikation in Big Data & Society - Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature
Starke, C., Baleis, J., Keller, B., & Marcinkowski, F. (2022). Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society, 9(2). doi.org/10.1177/20539517221115189
Algorithmic decision-making increasingly shapes people's daily lives. Given that such autonomous systems can cause severe harm to individuals and social groups, fairness concerns have arisen. A human-centric approach demanded by scholars and policymakers requires considering people's fairness perceptions when designing and implementing algorithmic decision-making. We provide a comprehensive, systematic literature review synthesizing the existing empirical insights on perceptions of algorithmic fairness from 58 empirical studies spanning multiple domains and scientific disciplines. Through thorough coding, we systemize the current empirical literature along four dimensions: (1) algorithmic predictors, (2) human predictors, (3) comparative effects (human decision-making vs. algorithmic decision-making), and (4) consequences of algorithmic decision-making. While we identify much heterogeneity around the theoretical concepts and empirical measurements of algorithmic fairness, the insights come almost exclusively from Western-democratic contexts. By advocating for more interdisciplinary research adopting a society-in-the-loop framework, we hope our work will contribute to fairer and more responsible algorithmic decision-making.
Vortrag des RAPP-Projekts auf dem Workshop "(Un)Fairness of Artificial Intelligence" in Amsterdam (27.-28.10.2022)
Vom 27.-28.10.2022 lud das Projektteam der Research Priority Area Human(e) AI der Universität Amsterdam zu einem interdisziplinären Workshop zum Thema "(Un)Fairness of Artificial Intelligence" ein. Das RAPP-Projektteam des Lehrstuhls, bestehend aus Marco Lünich, Birte Keller und Frank Marcinkowski,, folgte dem Call for Papers und nutzte die Möglichkeit einen Vortrag mit dem Titel "The effects of students’ distributive justice norm preferences on the evaluation of Artificial Intelligence in higher education." den anwesenden Forscher:innen aus ganz Europa zu präsentieren.
MeMo:KI auf KI.Forum.NRW 2022 zum Thema KI und Nachhaltigkeit
Auf dem KI.Forum.NRW 2022 am 26. Oktober berichtet Prof. Dr. Frank Marcinkowski welche Zusammenhänge Bürgerinnen und Bürger zwischen ökologischer Nachhaltigkeit und Künstlicher Intelligenz herstellen - und welche nicht. Die Daten stammen aus unserem Projekt Meinungsmonitor Künstliche Intelligenz (MeMo:KI). Alle weiteren Infos zur Veranstaltung finden Sie hier: https://www.kiforum.nrw.
Die Auswahl von Zeiträumen und Startzeitpunkten in der Zeitreihenanalyse - Veröffentlichung im Sammelband "Grenzen, Probleme und Lösungen bei der Stichprobenziehung"
Kohler, S. (2022). Die Auswahl von Zeiträumen und Startzeitpunkten in der Zeitreihenanalyse. In J. Jünger, U. Gochermann, C. Peterm & M. Bachl. (Hrsg.) Grenzen, Probleme und Lösungen bei der Stichprobenziehung. (S. Köln: 353-378). Herbert von Halem-Verlag.
Die Variable Zeit spielt in der Kommunikationswissenschaft eine zentrale Rolle, dennoch sind Diskussionen über und Auseinandersetzungen mit der Variablen eher selten. Im Beitrag wird zunächst mit Bezug auf die Agenda-Setting-Forschung diskutiert, welche Kriterien im wissenschaftlichen Forschungsprozess einen Einfluss auf die Auswahl von Zeiträumen haben können. Schließlich werden zwei Entscheidungen bei der Analyse von zeitbasierten Daten sekundäranalytisch überprüft: der Startpunkt und die Länge von Zeiträumen bei der Aggregation von Zeitreihen. Es zeigt sich, dass insbesondere extreme Ereignisse wie ein Terroranschlag besondere Berücksichtigung finden, um Zeitverläufe adäquat zu erfassen.
Gemeinsamer Stand von MeMo:KI und DIID auf der langen Nacht der Wissenschaft
Am 09.09.2022 haben Bürgerinnen und Bürger die Möglichkeit sich von 17 Uhr bis 24 Uhr am Schadowplatz am Haus der Universität in der Düsseldorfer Innenstadt an zahlreichen Infoständen, in Vorträgen und Talkrunden zu den verschiedensten Forschungsfeldern informieren. Auch unser Projekt Meinungsmonitor Künstliche Intelligenz wird vor Ort Einblicke in das neue Dashboard zur Bevölkerungsmeinung sowie zur Analyse der Medienberichterstattung und Twitter-Kommunikation über Künstliche Intelligenz geben. Esther Laukötter steht für Fragen am gemeinsamen Stand mit dem Düsseldorf Institute for Internet and Democracy (DIID) bereit.
Benefits and detriments of interdisciplinarity on early career scientists’ performance. - Veröffentlichung bei PLOS ONE
Unger, S., Erhard, L., Wiczorek, O., Koß, C., Riebling, J., & Heiberger, R. H. (2022). Benefits and detriments of interdisciplinarity on early career scientists' performance. An author-level approach for U.S. physicists and psychologists. PLOS ONE, Online First. https://doi.org/10.1371/journal.pone.0269991
Is the pursuit of interdisciplinary or innovative research beneficial or detrimental for the impact of early career researchers? We focus on young scholars as they represent an understudied population who have yet to secure a place within academia. Which effects promise higher scientific recognition (i.e., citations) is therefore crucial for the high-stakes decisions young researchers face. To capture these effects, we introduce measurements for interdisciplinarity and novelty that can be applied to a researcher’s career. In contrast to previous studies investigating research impact on the paper level, hence, our paper focuses on a career perspective (i.e., the level of authors). To consider different disciplinary cultures, we utilize a comprehensive dataset on U.S. physicists (n = 4003) and psychologists (n = 4097), who graduated between 2008 and 2012, and traced their publication records. Our results indicate that conducting interdisciplinary research as an early career researcher in physics is beneficial, while it is negatively associated with research impact in psychology. In both fields, physics and psychology, early career researchers focusing on novel combinations of existing knowledge are associated with higher future impact. Taking some risks by deviating to a certain degree from mainstream paradigms seems therefore like a rewarding strategy for young scholars.
How Is Socially Responsible Academic Performance Prediction Possible? - Veröffentlichung im Sammelband "Strategy, Policy, Practice, and Governance for AI in Higher Education Institutions"
Keller, B., Lünich, M. & Marcinkowski, F. (2022). How Is Socially Responsible Academic Performance Prediction Possible?: Insights From a Concept of Perceived AI Fairness. In F. Almaraz-Menéndez, A. Maz-Machado, C. López-Esteban, & C. Almaraz-López (Hrsg..), Strategy, Policy, Practice, and Governance for AI in Higher Education Institutions (S. 126-155). IGI Global. doi.org/10.4018/978-1-7998-9247-2.ch006
The availability of big data at universities enables the use of artificial intelligence (AI) systems in almost all areas of the institution: from administration to research, to learning and teaching, the use of AI systems is seen as having great potential. One promising area is academic performance prediction (APP), which is expected to provide individual feedback for students, improve their academic performance and ultimately increase graduation rates. However, using an APP system also entails certain risks of discrimination against individual groups of students. Thus, the fairness perceptions of affected students come into focus. To take a closer look at these perceptions, this chapter develops a framework of the “perceived fairness” of an ideal-typical APP system, which asks critical questions about input, throughput and output, and based on the four-dimensional concept of organizational justice, sheds light on potential (un-)fairness perceptions from the students' point of view.
The Effect of Science-Related Populism on Vaccination Attitudes and Decisions: Veröffentlichung in Journal of Behavioral Medicine
Kohler, S. & Koinig, I. (2022). The Effect of Science-Related Populism on Vaccination Attitudes and Decisions. Journal of Behavioral Medicine. doi.org/10.1007/s10865-022-00333-2
As the COVID-19 pandemic has sadly shown, the decision against vaccination is often linked to political ideologies and populist messages among specific segments of the population: People do not only have concerns about a potential health risk associated with vaccination but seem to have also adopted more populist attitudes towards science. In this study, the relationship between science-related populism and individuals’ attitudes towards vaccination was examined, presuming that scientific-related populism also influences individual responses towards different vaccinations. As different types of diseases and their vaccines might be perceived rather distinctively by the public, different vaccinations were considered. The survey is based on responses from 870 people from Germany and Austria. Results indicate that science-related populism influences responses towards some vaccination types, especially for those that receive extensive media coverage such as COVID-19 and measles (MMR). There was no significant impact of science-related populism on individuals’ vaccination intentions for other vaccines like seasonal influenza, human papillomavirus, or tick-borne encephalitis. In conclusion, limitations and directions for future research are addressed.
MeMo:KI beim Theme Development Workshop des Projekts Vision4AI
Beim Theme Development Workshop des EU-geförderten Projekts Vision4AI "AI: Mitigating Bias & Disinformation" ist Pero Došenović als Experte in der Breakout Session "Science Communication with and on AI" geladen. Dort wird er mit den Teilnehmerinnen und Teilnehmern basierend auf Daten aus dem Meinungsmonitor Künstliche Intelligenz über Herausforderungen eines potenziellen Publikums für Wissenschaftskommunikation über KI diskutieren.
AI-Ethics by Design: Veröffentlichung in Big Data & Society
Kieslich, K., Keller, B. & Starke, C. (2022). AI-Ethics by Design. Evaluating Public Perception on the Importance of Ethical Design Principles of AI. Big Data & Society, 1-15. https://doi.org/10.1177/20539517221092956
Despite the immense societal importance of ethically designing artificial intelligence, little research on the public perceptions of ethical artificial intelligence principles exists. This becomes even more striking when considering that ethical artificial intelligence development has the aim to be human-centric and of benefit for the whole society. In this study, we investigate how ethical principles (explainability, fairness, security, accountability, accuracy, privacy, and machine autonomy) are weighted in comparison to each other. This is especially important, since simultaneously considering ethical principles is not only costly, but sometimes even impossible, as developers must make specific trade-off decisions. In this paper, we give first answers on the relative importance of ethical principles given a specific use case—the use of artificial intelligence in tax fraud detection. The results of a large conjoint survey (n = 1099) suggest that, by and large, German respondents evaluate the ethical principles as equally important. However, subsequent cluster analysis shows that different preference models for ethically designed systems exist among the German population. These clusters substantially differ not only in the preferred ethical principles but also in the importance levels of the principles themselves. We further describe how these groups are constituted in terms of sociodemographics as well as opinions on artificial intelligence. Societal implications, as well as design challenges, are discussed.
Exploring the roles of trust and social group preference on the legitimacy of algorithmic decision-making vs. human decision-making for allocating COVID-19 vaccinations: Veröffentlichung in AI & Society
Lünich, M., Kieslich, K. Exploring the roles of trust and social group preference on the legitimacy of algorithmic decision-making vs. human decision-making for allocating COVID-19 vaccinations. AI & Society (2022), 1-19. https://doi.org/10.1007/s00146-022-01412-3
In combating the ongoing global health threat of the COVID-19 pandemic, decision-makers have to take actions based on a multitude of relevant health data with severe potential consequences for the affected patients. Because of their presumed advantages in handling and analyzing vast amounts of data, computer systems of algorithmic decision-making (ADM) are implemented and substitute humans in decision-making processes. In this study, we focus on a specific application of ADM in contrast to human decision-making (HDM), namely the allocation of COVID-19 vaccines to the public. In particular, we elaborate on the role of trust and social group preference on the legitimacy of vaccine allocation. We conducted a survey with a 2 × 2 randomized factorial design among n = 1602 German respondents, in which we utilized distinct decision-making agents (HDM vs. ADM) and prioritization of a specific social group (teachers vs. prisoners) as design factors. Our findings show that general trust in ADM systems and preference for vaccination of a specific social group influence the legitimacy of vaccine allocation. However, contrary to our expectations, trust in the agent making the decision did not moderate the link between social group preference and legitimacy. Moreover, the effect was also not moderated by the type of decision-maker (human vs. algorithm). We conclude that trustworthy ADM systems must not necessarily lead to the legitimacy of ADM systems.
Luisa-Sophie Lasenga verstärkt die KMW I im Sekretariat
Seit dem 11.04.2022 verstärkt Luisa-Sophie Lasenga das Team des Lehrstuhls Kommunikations- und Medienwissenschaft I im Sekretariat.
Der Glaube an Big Data: Veröffentlichung der Dissertation von Dr. Marco Lünich
Lünich, M. (2022). Der Glaube an Big Data. Eine Analyse gesellschaftlicher Überzeugungen von Erkenntnis- und Nutzengewinnen aus digitalen Daten. Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-658-36368-0
Das Aufkommen der digitalen Gesellschaft geht einher mit wirkmächtigen Narrativen wie etwa der Wissensgesellschaft. In diesem Zusammenhang wird die Möglichkeit der Sammlung und Auswertung von großen digitalen Datenbeständen betont, den Big Data. Mit Big Data verbinden sich Erwartungen für die gesellschaftliche Erkenntnisproduktion und hieraus gezogenen Nutzen. In der Fachliteratur wird vermutet, dass die Überzeugung von den Konsequenzen einer Quantifizierung der Welt und des Sozialen auch in den Köpfen der Menschen verfängt und einstellungsrelevant wird. Die Dissertation geht in zwei aufeinander aufbauenden Studien der Annahme verbreiteter Glaubensüberzeugungen von der Qualität und Wirkmächtigkeit der Digitaldaten nach und analysiert kollektive Überzeugungen von Erkenntnis‐ und Nutzengewinnen aus Big Data. Hierzu wird die Messung eines Big‐Data‐ Glaubenssystems (BDGS) für die standardisierte Befragungsforschung entworfen und getestet. Durch Einsatz dieses Untersuchungsinstruments in diversen Forschungszusammenhängen des Einsatzes von Technologien Künstlicher Intelligenz wird geprüft, inwieweit das Vorhandensein des BDGS Einstellungen gegenüber Phänomenen der Digitalisierung erklärt.
Validierung von NER-Verfahren zur automatisierten Identifikation von Akteuren in deutschsprachigen journalistischen Texten: Veröffentlichung in Studies in Communication and Media
Buz, C., Promies, N., Kohler, S. & Lehmkuhl, M. (2021). Validierung von NER-Verfahren zur automatisierten Identifikation von Akteuren in deutschsprachigen journalistischen Texten. Studies in Communication and Media, 10(4), 590 - 627. doi.org/10.5771/2192-4007-2021-4-590
Dieser Beitrag befasst sich mit der Validierung von Named Entity Recognition (NER), einem Verfahren, das als Teilschritt der Inhaltsanalyse von umfangreichen Textdaten eingesetzt werden kann und auf die automatisierte Identifikation und Extraktion von Eigennamen (Personen, Organisationen, Orte) in Texten spezialisiert ist. Für diesen Zweck werden oft frei verfügbare NER-Softwarepakete verwendet, die mit spezifischen Textdaten trainiert und optimiert wurden. Dadurch ist jedoch ungewiss, ob diese NER-Pakete bei der Analyse von unbekannten journalistischen Nachrichtentexten richtige und präzise Ergebnisse liefern können. Um dies zu evaluieren, wurden drei in der Programmiersprache Python implementierte NER-Codepackages gegenübergestellt und die Ergebnisse der automatisierten Analyse mit den Ergebnissen einer manuellen Inhaltsanalyse derselben journalistischen Textdaten verglichen. Ziel ist damit, die Eignung und Güte verschiedener NER-Softwarepakete für die Identifikation von Akteuren zu prüfen, denn obwohl in der Kommunikationswissenschaft vermehrt automatisierte Verfahren eingesetzt werden, mangelt es an Studien, die die Validität der erhaltenen Ergebnisse bewerten. Die Ergebnisse zeigen eine hohe Übereinstimmung zwischen den händisch erhobenen und den automatisiert identifizierten Personennamen, lediglich bei der automatisierten Identifikation von Organisationsnamen ist die Übereinstimmungsquote mit den manuellen Codierungen geringer.
Workshop "KI in der politischen Kommunikationsforschung: Theoretische Perspektiven und empirische Fragen"
Im Rahmen der DGPuK 22 bieten Marco Lünich, Carina Weinmann, Pero Došenović und Kimon Kieslich den Workshop "KI in der politischen Kommunikationsforschung: Theoretische Perspektiven und empirische Fragen" an.
Zielsetzungen dieses Workshops, der sich an Kommunikationswissenschaftler*Innen mit Forschungsinteresse am Themenbereich Technologien Künstlicher Intelligenz (KI) in der politischen Kommunikation richtet, sind unter anderem: Die Schaffung eines Überblicks über aktuelle Forschungsfragen- und Ansätze, die Förderung des wissenschaftlichen Austauschs, die Bildung von Netzwerken und standortübergreifender Forschungsprojekte sowie die Formulierung und Bearbeitung neuer Fragestellungen.
Der Workshop findet am 22.02.2022 im Haus der Universität in Düsseldorf von 12:00 - 16:00 Uhr statt. Eine Anmeldung ist über das Online-Portal der DGPuK 2022 möglich: https://www.moodle-dgpuk22.de/login/index.php
Neue Veröffentlichung im Bereich Politische Kommunikation
Marcinkowski, F. (2020). Systemtheorie und politische Kommunikation. In I. Borucki, K. Kleinen-von-Königslöw, S. Marschall, & T. Zerback (Hrsg.) Handbuch Politische Kommunikation. Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-26242-6_5-1
Erste Ergebnisse des Meinungsmonitor Künstliche Intelligenz [MeMo:KI]
Seit Anfang Mai untersucht der Meinungsmonitor Künstliche Intelligenz [MeMo:KI] alle zwei Wochen die Einstellung der Bevölkerung zu KI-Fragen. Wie intensiv setzen sich die Bürgerinnen und Bürger mit dieser Technologie auseinander? Wie wird der Einsatz von KI in verschiedenen Anwendungsfeldern bewertet? Und welche Bedeutung hat KI für zukünftige Wahlentscheidungen? Erste Daten der Bevölkerungsbefragungen des MeMo:KI sind nun auch in einer Beta-Version des interaktiven Dashboards einsehbar.
Im Rahmen der regelmäßigen Befragungen werden neben den wiederkehrenden Fragen auch immer wieder Spezialthemen aufgegriffen. Aktuell beschäftigt die gesamte Gesellschaft die Corona-Pandemie. Weltweit werden verschiedene KI-Anwendungen für den Kampf gegen das Virus entwickelt oder sind bereits im Einsatz. Auch in Deutschland sind einige der technologischen Lösungen denkbar. Doch wie sieht es mit der Akzeptanz in der Bevölkerung für solche Anwendungen aus? Dazu wurden Mitte Mai und Juni etwa 2.000 Personen befragt. Bei den meisten Anwendungen zeigen sich teils deutlich höhere Zustimmungswerte als bei einer unspezifischen Abfrage der Verwendung von KI im Gesundheitswesen. Gerade in der Anti-Corona-Forschung wird ein Einsatz von einer breiten Mehrheit unterstützt: Dreiviertel der Befragten befürworten die Verwendung von KI in der Erforschung von Wirkstoffen. Weniger Zustimmung gibt es für Anwendungen, die näher in die Privatsphäre der Menschen rücken oder existenzielle Fragen klären sollen. Für weitere Informationen können Sie gerne in unserem Factsheet nachlesen oder uns direkt über kontaktieren.
Neue Veröffentlichung im Bereich Politische Online Kommunikation
Marcinkowski, F. & Dosenovic, P. (2020). From incidental exposure to intentional avoidance: Psychological reactance to political communication during the 2017 German national election campaign. New Media & Society.https://doi.org/10.1177/1461444820902104
Erfolgreicher Projektantrag zum "Meinungsmonitor Künstliche Intelligenz" beim Center for Advanced Internet Studies
Im Rahmen des vom Center for Advanced Internet Studies (CAIS) iniziierten Forschungsinkubators haben Prof. Dr. Frank Marcinkowski und Christopher Starke erfolgreich Mittel für die Entwicklung des "Meinungsmonitor Künstliche Intelligenz" (MeMo:KI) eingeworben. Das Projekt ist zunächst auf 15 Monate (Januar 2020 bis März 2021) angelegt und wird neben den Projektleitern von Kimon Kieslich sowie Pero Dosenovic bearbeitet.
Weithin unbestritten werden Technologien, die unter dem Begriff Künstliche Intelligenz verhandelt werden, zu einem tiefgreifenden Wandel der Gesellschaft führen, wie er bereits in einzelnen Teilen zu beobachten ist. Der Ausgestaltung dieses Wandels nehmen sich bislang vor allem Wirtschaft und technologieentwickelnde Wissenschaften an, deren Innovationskraft vor allem ökonomischen Interessen entspringt. Im Hinblick auf sozial- und demokratieverträgliche Technikgestaltung bedarf es jedoch auch einer aktiven Zivilgesellschaft. Der Untersuchung des Umgangs ebendieser mit der Technologie widmet sich der MeMo:KI.
Durch eine kontinuierliche Beobachtung öffentlicher und veröffentlichter Meinung wird eine Erklärung der Substanz vorherrschender Meinungen zu Künstlicher Intelligenz sowie der Prozesse der Meinungsbildung und -änderung ermöglicht. Auf Grundlage von Befragungsdaten, einer systematischen Beobachtung des Mediendiskurses sowie der Kommunikation von Expert*innen in Social Media können beispielsweise Agenda Setting und Framing-Prozesse abgebildet werden. Die Ergebnisse werden der breiten Öffentlichkeit auf einer interaktiven Plattform zur Verfügung gestellt, sodass die Gesellschaft die Möglichkeit hat, Ihren eigenen Umgang mit der Thematik zu beobachten.
Mitarbeiter des Lehrstuhls mit einem Beitrag auf der Conference on Fairness, Accountability, and Transparency der Association for Computung Machinery (ACM FAT*)
Vom 27. bis 30. Januar 2020 findet die zweite Conference on Fairness, Accountability and Transparency der ACM in Barcelon, Spanien statt. Der Lehrstuhl ist mit einem Beitrag auf der Computer Science Konferenz mit interdisziplinären Fokus vertreten:
Marcinkowski, F., Kieslich, K., Starke, C. & Lünich, M. (2020, in Druck). Implications of AI (Un-)Fairness in Higher Education Admissions: The Effects of Perceived AI (Un-)Fairness on Exit, Voice and Organizational Reputation. Proceedings of the Conference on Fairness, Accountability, and Transparency of the Association for Computing Machinery (ACM FAT*). https://doi.org/10.1145/3351095.3372867.
Der Beitrag wird zudem als Conference Proceeding zum Download zur freien Verfügung stehen.
Mitarbeiter des Lehrstuhls mit zwei Beiträgen auf der General Conference of the European Consortium for Political Research (ECPR) in Worclaw
Vom 04. bis 07. September 2019 findet die diesjährige General Conference der ECPR in Worclaw, Polen statt. Der Lehrstuhl ist mit insgesamt zwei Beiträgen auf der europäischen Konferenz für Politikwissenchaften vertreten:
Kieslich, K., & Marcinkowski, F. (2019, September). Involuntary Media Populism – How German Mainstream Media Inadvertently Facilitate Populist Movements by Evoking Fear and Anger. Presentation at the Annual General Conference of the European Consortium for Political Research (ECPR) in Wroclaw (04.-07.09.2019).
Kieslich, K., Marcinkowski, F., & Starke, C. (2019, September). Do not Trust the Elite! – Correlates Among Populist Attitudes and Trust in Politics and Media in Four Western-European Countries. Presentation at the Annual General Conference of the European Consortium for Political Research (ECPR) in Wroclaw (04.-07.09.2019).
Neue Veröffentlichung im Bereich Sport & Medien
Lünich, M., Starke, C., Marcinkowski, F., & Dosenovic, P. (2019). Double Crisis: Sport Mega Events and the Future of Public Service Broadcasting. Communication & Sport. https://doi.org/10.1177/2167479519859208
Mitarbeiter des Lehrstuhls mit drei Beiträgen auf der 69. Jahrestagung der ICA in Washington D.C. vertreten
Vom 24. bis 28. Mai 2019 findet die 69. Jahrestagung der International Communication Association (ICA) in Washington D.C. statt. Der Lehrstuhl ist mit insgesamt drei Beiträgen auf der größten internationalen Konferenz für Kommunikationswissenschaftler*innen vertreten:
Dosenovic, P., & Marcinkowski, F. (2019, Mai). From Incidental Exposure to Intentional Avoidance: Psychological Reactance to Political Communication During the 2017 German National Election Campaign. Präsentation auf der 69. Annual Conference of the International Communication Association (ICA) in der Interest Group Political Communication in Washington, D.C. (USA) (24.-28.05.2019).
Geise, S., Hänelt, M., & Dosenovic, P. (2019, Mai). What Follows "Fake News"? Effects of Alleged "Fake News" Perception on Self- and Social-Related Follow-Up Participation. Präsentation auf der 69. Annual Conference of the International Communication Association (ICA) in der Interest Group Mass Communication in Washington, D.C. (USA) (24.-28.05.2019).
Hase, V., Kieslich, K., & Engelke, K. (2019, Mai). The Things We Fear – Using Automated Content Analysis to Uncover How UK and US Media Construct Fear over Time (1990-2017). Präsentation auf der 69. Annual Conference of the International Communication Association (ICA) in der Interest Group Journalism Studies in Washington, D.C. (USA) (24.-28.05.2019).
Mitarbeiter des Lehrstuhls mit zwei Beiträgen auf der 64. Jahrestagung der DGPuK in Münster vertreten
Vom 9. bis 11. Mai 2019 findet die 64. Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuK) in Münster statt. Der Lehrstuhl ist mit insgesamt zwei Beiträgen auf der Tagung vertreten:
Hase, V., Engelke, K., & Kieslich, K. (2019, Mai). Angst vor Terror, Klimawandel & Arbeitslosigkeit? Eine automatisierte Inhaltsanalyse von Themen und Trends im Kontext von Angst in den Medien. Präsentation auf der 64. Jahrestagung der DGPuK in Münster (09.-11.05.2019).
Wiencierz, C., & Lünich, M. (2019, Mai). Vertrauen in Open Data zur Überbrückung des Data Divides. Präsentation auf der 64. Jahrestagung der DGPuK in Münster (09.-11.05.2019).
Erfolgreicher Drittmittelantrag im Rahmen der Forschungsinitiative "Künstliche Intelligenz - Ihre Auswirkungen auf die Gesellschaft von morgen" der VolkswagenStiftung
Im Rahmen der Forschungsinitiative "Künstliche Intelligenz - Ihre Auswirkungen auf die Gesellschaft von morgen" der VolkswagenStiftung, konnte ein Planning Grant für insgesamt neun Monate eingeworben werden. Das interdisziplinäre Projekt Fair Artificial Intelligence Reasoning (FAIR) soll die Integration von Fairness-Konzepten in die Programmierung von künstlicher Intelligenz erörtern und untersuchen, inwiefern diese einen Einfluss auf die Legitimitätswahrnehmung von algorithmisch getroffenen Entscheidungen hat. Als Anwendungsbeispiel werden Anwendungen im Hochschulbereich herangezogen. Gemeinsam mit Kollegen aus der Soziologie und der Informatik wird im Rahmen des Planning Grants ein Vollantrag erstellt. Für das Projekt konnten mit Janine Baleis und Birte Keller zwei neue Projektmitarbeiterinnen am Lehrstuhl gewonnen werden.
Erfolgreich abgeschlossenes Promotionsverfahren von Christopher Starke
Am 30. August 2018 hat Herr Christopher Starke erfolgreich seine Dissertation mit dem Titel "United in Diversity? The Effects of Media Identity Framing on Individual European Solidarity" verteidigt und wurde mit der Note magna cum laude geehrt. Wir gratulieren Christopher Starke herzlich und freuen uns mit ihm als PostDoc am Lehrstuhl weiterhin zusammenarbeiten zu dürfen.
Neue Veröffentlichung im Bereich Digitale Gesellschaft
Lünich, M., & Marcinkowski, F. (2018). Der Facebook-Datenskandal im Spiegel der öffentlichen Meinung. Précis für das Düsseldorfer Institut für Internet und Demokratie (DIID). Abrufbar unter (Download)https://diid.hhu.de/wp-content/uploads/2018/08/DIID-Precis_L%C3%BCnich_Marcinkowski.pdf