Zum Inhalt springen
Accurately Predictions
09 August 2021

Mythos: KI kann menschliches Verhalten präzise vorhersagen und optimieren

Durch den technologischen Fortschritt im Bereich der Künstlichen Intelligenz und der wachsenden Menge an Verhaltensdaten, die Mitarbeiter in ihrer täglichen Routine generieren, sind sogenannte People-Analytics-Tools zu einem Thema der öffentlichen Debatte geworden. Diese Tools erfassen und analysieren die Verhaltensdaten von Mitarbeitenden, kombinieren sie mit Geschäftsdaten und bieten Mitarbeitenden und ihren Führungskräften Einblicke in Arbeitsabläufe, Leistung und Potenzial. Auf dieser Basis verspricht People Analytics, mitarbeiterbezogene Entscheidungen zu objektivieren und zu optimieren. Manager*innen stellen daher hohe Erwartungen an diese Tools, insbesondere angesichts der wachsenden Zahl von Mitarbeitenden, die von zu Hause aus arbeiten und sich außerhalb ihrer räumlichen Kontrolle bewegen.

Mythos

KI kann menschliches Verhalten genau vorhersagen und optimieren.

KI kann in der Tat Wahrscheinlichkeiten für menschliche Handlungen auf Basis historischer Daten vorhersagen. Die Genauigkeit dieser Vorhersagen hängt jedoch stark von der Datenqualität ab und ist keineswegs fehlerfrei. Da das Verhalten von Menschen am Arbeitsplatz komplex und nicht immer quantifizier- und messbar ist, kann die aktuelle Generation Künstlicher Intelligenz die Personalführung nur in einem begrenzten Bereich unterstützen und wird menschliche Manager*innen somit nicht ersetzen können.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Giermindl, L. M., Strich, F., Christ, O., Leicht-Deobald, U. & Redzepi, A. (2021). The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees. European Journal of Information Systems, ahead of print, 1-26.

Tursunbayeva, A., Di Lauro, S. & Pagliari, C. (2018). People analytics—A Scoping Review of Conceptual Boundaries and Value Propositions. International Journal of Information Management, 43, 224–247.

ZUSATZMATERIALIEN

AlgorithmWatch. (2020). Positionen zum Einsatz von KI im Personalmanagement. Rechte und Autonomie von Beschäftigten stärken – Warum Gesetzgeber, Unternehmen und Betriebsräte handeln müssen.

BMAS. (2021). Gesetz zur Förderung der Betriebsratswahlen und der Betriebsratsarbeit in einer digitalen Arbeitswelt (Betriebsrätemodernisierungsgesetz).
European Commission.

 
Gal, U., Jensen, T. B. & Stein, M.-K. (2020). Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics. Information and Organization, 30(2), 1-15.

Hammermann, A. & Thiele, C. (2019). People Analytics: Evidenzbasiert Entscheidungsfindung im Personalmanagement, IW-Report, No. 35/2019. Köln: Institut der deutschen Wirtschaft (IW). 

Leonardi, P. M. (2021). COVID‐19 and the New Technologies of Organizing: Digital Exhaust, Digital Footprints, and Artificial Intelligence in the Wake of Remote Work. Journal of Management Studies, 58(1), 249-253.

Netflix. (2020). Vorprogrammierte Diskriminierung [Video].

Nielsen, C. & McCullough, N. (2018). How People Analytics Can Help You Change Process, Culture, and Strategy. Harvard Business Review.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.  

Rasmussen, T. & Ulrich, D. (2015). Learning from Practice: How HR Analytics avoids being a Management Fad. Organizational Dynamics, 44(3), 236–242.

Stieler, W. (2021). Die Vermessung der Arbeit. MIT Technology Review, 4/2021, 22-27.

Thieltges, A. (2020). Machine Learning Anwendungen in der betrieblichen Praxis – Praktische Empfehlungen zur betrieblichen Mitbestimmung. Mitbestimmungspraxis, Nr. 33, Düsseldorf: Institut für Mitbestimmung und Unternehmensführung.

Tursunbayeva, A., Pagliari, C., Di Lauro, S. & Antonelli, G. (2021). The ethics of people analytics: risks, opportunities and recommendations, Personnel Review, ahead of print.

Zweig, K. (2019). Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. Heyne Verlag.
UNICORN IN THE FIELD

AlgorithmWatch

Über die Autorinnen

Sonja Köhne | HIIG

Sonja Köhne

Researcher, Universität Hamburg / Assoziierte Doktorandin, Humboldt-Institut für Internet & Gesellschaft

Sonja ist assoziierte Doktorandin in der Gruppe Innovation, Entrepreneurship & Society am HIIG und wissenschaftliche Mitarbeiterin an der Universität Hamburg. Am HIIG unterstützt sie derzeit das vom Bundesministerium für Arbeit und Soziales geförderte Forschungsprojekt Artificial Intelligence & Knowledge Work. Ihr Forschungsschwerpunkt liegt u.a. auf der Digitalisierung von Prozessen im Personalmanagement und deren Auswirkungen auf die Beschäftigten. Insbesondere interessiert sie sich für sogenannte People-Analytics-Anwendungen. Vor ihrer Tätigkeit als Wissenschaftlerin war Sonja fünf Jahre lang als HR-Praktikerin im Bereich der Personalinformationssysteme tätig. 

@sonjaxko

Miriam Klöpper

Researcher im Projekt “Anonymous Predictive People Analytics (AnyPPA)” am FZI Forschungszentrum Informatik, Berlin

Miriam Klöpper ist wissenschaftliche Mitarbeiterin am FZI Forschungszentrum Informatik Berlin/ Karlsruhe. Derzeit betreut sie das vom BMBF geförderte Projekt Anonymous Predictive People Analytics. Schwerpunktmäßig setzt sie sich dort mit dem Thema Zukunft der Arbeit auseinander und betrachtet die sozialen und ethischen Implikationen des zunehmenden Einsatzes von KI am Arbeitsplatz, sowie die Entwicklung von Mitbestimmung und Chancengerechtigkeit am Arbeitsplatz. 

@kloeppermiriam

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Sonja Köhne

Wissenschaftliche Mitarbeiterin: Innovation, Entrepreneurship & Gesellschaft

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Weitere Artikel

Das Foto zeigt eine Gruppe junger Menschen, die alle auf ihr Smartphone gucken. Kein Smartphone zu haben, bedeutet, von der Gesellschaft ausgegrenzt zu werden.

Kein Smartphone = Cringe Weirdo

In diesem Blogbeitrag berichtet Jascha Bareis von seinen Erfahrungen, seit er sich erst in diesem Jahr sein erstes Smartphone gekauft hat. 

Das Foto zeigt die blau-gelbe Fahne der Europäischen Union, symbolisch für die anstehende Europawahl.

Europawahl und Digitalpolitik: Positionen der Parteien

Inwiefern beschäftigen sich deutsche Parteien zur Europawahl mit Digitalpolitik? Ein Blick in die Wahlprogramme zeigt unterschiedliche Schwerpunkte.

Das Foto zeigt Hände nebeneinander. Das symbolisiert die Integration von Geschlecht und Inklusivität in digitale Kulturpolitiken.

Geschlecht und Inklusivität in digitalen Kulturpolitiken: Erkenntnisse aus Berlin und Barcelona

Können Berlins und Barcelonas integrativer Umgang mit der Digitalisierung als Blaupause für eine neue europäische Kulturpolitik im digitalen Zeitalter dienen?