Zum Inhalt springen
Ein einzelner Hai im blauen Ozean symbolisiert ein Haifischbecken: eine unsichtbare Bedrohung und gefühlslose Konkurrenz am Arbeitsplatz, die Vertrauen in KI schwinden lässt.
04 September 2025| doi: 10.5281/zenodo.17054354

Gefühlslose Konkurrenz am Arbeitsplatz: Wenn Vertrauen in KI ins Wanken gerät

In vielen Unternehmen arbeiten Menschen bereits Seite an Seite mit Künstlicher Intelligenz (KI). Systeme wie ChatGPT, DALL·E oder spezialisierte Analyse-Tools unterstützen bei Entscheidungen, liefern kreative Impulse oder übernehmen komplexe Aufgaben – oft schneller und präziser als ihre menschlichen Kolleg*innen. Doch genau diese Überlegenheit hat ihren Preis. Unsere Forschung zeigt: Vertrauen in KI gerät ins Wanken, wenn Menschen sich im direkten Vergleich unterlegen fühlen. Der Grund ist einfach. Menschen vergleichen sich, ob mit Kolleg*innen oder mit Maschinen. Und dieser Vergleich ist emotional. Wer im Wettbewerb mit einer KI das Nachsehen hat, zweifelt nicht nur an sich selbst, sondern auch an der Technologie. So paradox es klingt: die Überlegenheit der Maschine kann das Vertrauen in sie schwächen. Statt die Zusammenarbeit mit KI zu fördern, sinkt dann die Bereitschaft, sie einzusetzen. Unternehmen sollten sich dieser Dynamik bewusst sein, wenn sie KI-Systeme einführen.

Wenn KI-Systeme Aufgaben übernehmen, die bisher Menschen vorbehalten waren, sollen sie vor allem eins: den Arbeitsalltag effizienter gestalten und für die Mitarbeitenden erleichtern. Die Erwartungen sind hoch. Unternehmen versprechen sich präzisere Entscheidungen, weniger Fehler und neue Möglichkeiten, Abläufe zu verbessern. Bereits heute analysieren Algorithmen Daten, sortieren Bewerbungen oder schlagen kreative Lösungen vor.

Auf den ersten Blick klingt das nach einem klaren Fortschritt. Ein neues, mächtiges Werkzeug, das unsere Arbeit ergänzt und erleichtert. Viele Menschen und Organisationen vertrauen daher auf die Leistungsfähigkeit von KI. Ganz nach dem Prinzip: Je besser die Maschine, desto höher das Vertrauen in sie.

Auch in der Forschung dominiert bislang dieser Blick. Studien zeigen, dass Menschen gerne mit einer KI zusammenarbeiten, wenn sie diese als kompetent wahrnehmen. (Choung et al., 2023) Allerdings lag der Fokus bisher meist auf der absoluten Leistung. Also darauf, wie gut die KI-Technologie an sich ist. Diese Sichtweise erscheint auf den ersten Blick schlüssig. Doch sie blendet einen wichtigen Aspekt aus. Menschen sind keine neutralen Beobachter*innen, sondern bewerten ihre eigene Leistung immer auch im Vergleich zu anderen. Das gilt auch, wenn dieser Vergleich mit einer Maschine stattfindet.

Wenn KI zu leistungsstark wird

Unsere Studie wirft daher einen neuen Blick auf diese Logik und verschiebt die Perspektive. Sie fragt nicht nur, wie leistungsfähig eine KI ist. Sie untersucht auch, wie sie im Vergleich zum Menschen abschneidet und welche Folgen der damit verbundene „soziale Vergleich“ hat.

Dafür haben wir ein Experiment durchgeführt. Im Mittelpunkt stand die Erfahrung, wie Menschen den direkten Vergleich mit einer KI wahrnehmen. Besonders interessiert hat uns dabei eine Frage: Wie bereit sind Beschäftigte, mit einer KI als Kollegin zusammenzuarbeiten, insbesondere dann, wenn sie feststellen, dass der Algorithmus bessere Ergebnisse liefert?

Relativer Vergleich statt absolute Leistung

Um besser zu verstehen, wie Menschen mit besonders leistungsstarken KI-Systemen umgehen, haben wir ein Vignettenexperiment mit 797 Teilnehmenden durchgeführt. Das ist eine bewährte Methode in der Verhaltensforschung, bei der Personen kurze, realitätsnahe Szenarien lesen und sich in eine bestimmte Situation hineinversetzen. 

In unserem Fall bekamen die Teilnehmenden ein kurzes Szenario, in dem sie sich vorstellen sollten, gerade ein Pokerturnier abgeschlossen zu haben. Anschließend erfuhren sie, ob sie im Vergleich zu einem menschlichen oder KI-Gegenüber gleich gut oder schlechter abgeschnitten hatten. Danach sollten sie einschätzen, wie gut sie sich vorstellen könnten, mit diesem Gegenüber bei einer völlig anderen, unabhängigen Aufgabe zusammenzuarbeiten. Die Studie zeigt zwei zentrale Effekte:

  1. Grundsätzliche KI-Begeisterung: Unabhängig vom Vergleichsergebnis waren die Teilnehmenden insgesamt eher bereit, sich eine Zusammenarbeit mit einer KI vorzustellen als mit einem Menschen. Diese generelle Offenheit gegenüber KI ist ein ermutigendes Signal. In der Forschung wird dieses Phänomen als „algorithm appreciation“ (Logg et al., 2019) beschrieben. 
  2.  KI-Überlegenheit kann Vertrauen untergraben: Sobald jedoch deutlich wurde, dass die KI sie zuvor übertroffen hatte, sank das Vertrauen (Benbasat & Wang, 2005) in sie drastisch. Das galt selbst dann, wenn es nur um ein Spiel wie Poker ging, das mit der späteren Aufgabe nichts zu tun hatte. Besonders bemerkenswert war, dass nicht nur das Vertrauen in das Wohlwollen und die Integrität der KI abnahm. Auch die wahrgenommene Kompetenz der Maschine litt. Und das, obwohl sie objektiv bessere Leistung als ihre menschlichen Mitstreiter*innen gezeigt hatte. 

Sozialer Wettbewerb mit Algorithmen?

Die Erklärung hierfür findet sich in der Sozialpsychologie. Menschen interpretieren Überlegenheit – auch die einer Maschine – nicht neutral. Sie reagieren darauf emotional. Wer sich unterlegen fühlt, empfindet häufig negative Gefühle wie Neid, Selbstzweifel oder eine Bedrohung für das eigene Selbstwertgefühl. (Smith, 2000) Diese negativen emotionalen Reaktionen übertragen sich auf die Bewertung der KI als Interaktionspartnerin, auch wenn diese natürlich kein Mensch ist. Sie wird damit nicht mehr als neutrales Werkzeug wahrgenommen, sondern als soziale Akteurin. Vergleichbar mit einer menschlichen Konkurrenz.

Soziale Vergleiche sind tief in unserem menschlichen Verhalten verankert. Wir messen uns ständig mit anderen, oft unbewusst. Wenn wir in einem solchen Vergleich schlecht abschneiden, erleben wir das häufig als eine Bedrohung für unser Selbstwertgefühl. Um dieses negative Gefühl abzumildern, greifen viele Menschen auf einen typischen Schutzmechanismus zurück. Sie ziehen sich emotional oder auch tatsächlich vom überlegenen Gegenüber zurück. (Tesser, 1988)

Neu ist allerdings, dass dieser Mechanismus auch bei KI-Systemen aktiviert wird. Obwohl wir wissen, dass KI-Assistenten keine „Gefühle“ oder „Absichten“ haben, behandeln wir sie im sozialen Vergleich ähnlich wie Menschen.

Was Unternehmen daraus lernen können

Wenn KI nicht nur technische, sondern auch psychologische Dynamiken auslöst, braucht es von Unternehmen ein sensibles Vorgehen bei ihrer Einführung. Leistungsstarke Systeme bieten enormes Potenzial. Sie können aber auch unbeabsichtigte Nebenwirkungen haben, insbesondere dann, wenn sie nicht mehr als Werkzeug, sondern als Konkurrenten wahrgenommen werden. 

Damit das Vertrauen in die Technologie erhalten bleibt und die Zusammenarbeit zwischen Mensch und Maschine gelingen kann, sollten Unternehmen gezielt gegensteuern. Hierbei können drei Ansätze helfen:

  • Weniger Triumph, mehr Teamplay: Die Überlegenheit der KI ständig zu betonen, kann Widerstände hervorrufen. Besser ist es vermutlich, KI-Systeme als Partner zu präsentieren, der menschliche Fähigkeiten ergänzt.
  • Soziale Dynamiken ernst nehmen: Führungskräfte sollten im Blick haben, dass neue Technologien auch Selbstwertbedrohungen auslösen können. Vertrauen sollte gezielt darauf aufgebaut werden.
  • Kommunikation anpassen: Statt Künstliche Intelligenz nur als überlegenes „Superhirn“ zu inszenieren, sollte der Fokus auf Zusammenarbeit und Unterstützung liegen.

Wer diese Prinzipien beachtet, kann eine Grundlage für echte Akzeptanz schaffen. So kann KI im Arbeitsalltag nicht nur effizient, sondern auch vertrauensvoll und nachhaltig genutzt werden. 

Ohne Vertrauen kein Erfolg

Diese Erkenntnisse zeigen, dass der Umgang mit Künstlicher Intelligenz in Unternehmen weit mehr erfordert als technisches Know-how. Moderne KI-Systeme wie etwa Large Language Models eröffnen uns immer wieder faszinierende neue Möglichkeiten. Sie reichen von Datenanalyse bis hin zu kreativer Content-Erstellung. Hierbei gilt es allerdings zu beachten: Technische Überlegenheit allein reicht nicht, um KI nachhaltig in Organisationen zu integrieren. Menschen wollen meist nicht nur mit der besten Technologie arbeiten. Sie wollen mit „Kolleg*innen“ arbeiten, denen sie vertrauen.

Wer KI erfolgreich einführen will, muss daher die Psychologie sozialer Vergleiche ernst nehmen. Es braucht Strategien, um Vertrauen aufzubauen, Selbstwertbedrohungen zu reduzieren und echte Zusammenarbeit zwischen Menschen und Maschine zu ermöglichen. Nur so kann das volle Potenzial von KI im Arbeitsalltag entfaltet werden.

Referenzen

Asbach, S., Graf-Vlachy, L., Fuegener, A., & Schinnen, M.H. (2025) Can Superior AI Performance in Unrelated Tasks Reduce People’s Willingness To Collaborate With the AI? Proceedings of the European Conference on Information Systems (ECIS). https://aisel.aisnet.org/ecis2025/human_ai/human_ai/1

Benbasat, I., & Wang, W. (2005). Trust in and adoption of online recommendation agents. Journal of the Association for Information Systems, 6(3).

Choung, H., David, P., & Ross, A. (2023). Trust in AI and its role in the acceptance of AI technologies. International Journal of Human–Computer Interaction, 39(9), 1727–1739.

Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.

Smith, R. H. (2000). Assimilative and contrastive emotional reactions to upward and downward social comparisons. In J. Suls & L. Wheeler (Eds.), Handbook of Social Comparison: Theory and Research (pp. 173–200). Springer.

Tesser, A. (1988). Toward a self-evaluation maintenance model of social behavior. In L. Berkowitz(Ed.), Advances in experimental social psychology (Vol. 21, pp. 181–227). Academic Press.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Man sieht einen leeren Büroraum ohne Möbel und braunen Teppichboden. Das Bild steht sinnbildlich für die Frage, wie die Arbeit der Zukunft und digitales Organisieren und Zukunft unseren Arbeitsplatz beeinflusst. You see an empty office room without furniture and brown carpeting. The image is emblematic of the question of how the work of the future and digital organising and the future will influence our workplace.

Digitale Zukunft der Arbeitswelt

Wie werden KI und Digitalisierung die Zukunft der Arbeit verändern? Wir erforschen ihre Auswirkungen sowie die Chancen und Risiken.

Weitere Artikel

Das Foto zeigt eine Reihe von Rudernden, die sich aneinander festhalten, sodass ihre Boote eine Reihe bilden. Das ist ein Sinnbild dafür, dass es eine vereinte Strategie braucht, um Desinformationsforschende in Europa vor koordinierten Angriffen zu schützen.

Europas Desinformationsforschende verteidigen

Immer häufiger werden Desinformationsforschende in Europa verklagt und diffamiert. Was steckt hinter diesen Angriffen? Und wie kann die EU sie schützen?

Das Foto zeigt einen Arbeiter, der eine blaue Glasfassade reinigt. Es steht symbolisch für Transparenz und das Hinterfragen von Annahmen über Desinformation.

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen

Was steckt hinter Annahmen über Desinformation? Dieser Artikel räumt mit Missverständnissen auf und zeigt, warum es mehr Forschung braucht.

Das Foto zeigt eine Nahaufnahme eines leuchtenden roten „STOP“-Signals vor unscharfem Stadthintergrund. Das ist ein visuelles Zeichen für „Nein zu KI“ und die wachsende Resistenz gegen undemokratische Machtstrukturen in der Entwicklung Künstlicher Intelligenz.

Nein zu KI: Wer widersetzt sich und warum?

Dieser Artikel zeigt: „Nein" zu KI sagen, heißt nicht, Technologie grundsätzlich abzulehnen. Es ist ein Weg, Macht zu hinterfragen und demokratische Teilhabe einzufordern.