Skip to content
cranium-2099120_640
08 March 2017

Artificial intelligence, human powerlessness – rediscovering human intelligence with AI

How does the relation between humans and machines change in light of growing artificial intelligence and is human intelligence decreasing, because more and more humans are being programmed by their technological ecology? Innovation consultant Hans Rusinek reflects on that question in this two-part blogpost.

Wenn es um die Zukunft der künstlichen Intelligenz (KI) geht, machen wir vor keinen Horrorszenarien halt. Die Szenarien folgen immer einem aus anderen Angstfantasien bekannten Muster: Erst lernen die Maschinen von uns, dann nehmen sie uns den Job weg und am Ende sogar die Geliebte. Uns alten Analogen ist in diesem Szenario lediglich eine Zuschauerrolle zugeschrieben. Wie sehr ist diese Angst gerechtfertigt und sind wir wirklich passive Beobachter dieser Entwicklungen?

Zu einer der bekanntesten Anekdoten im Bereich der KI gehört die Geschichte von Robert Epstein und dem Chat-Bot Ivana. Da chattete Professor Epstein, Psychologe, Computerwissenschaftler und einer der Vordenker im Bereich KI über Monate mit einer gewissen Ivana, von der er glaubte, dass sie eine gutaussehende russische Dame sei, die ebenfalls auf der Suche nach einem Partner wäre. Doch dann kam es, wie es kommen musste: die osteuropäische Dame war eine Software, und der Computerwissenschaftler düpiert.

Die Moral von der Geschichte gibt es in zwei Versionen. In Version Eins, der offensichtlichen, ist Ivanka ein verblüffendes Beispiel dafür, wie menschenähnlich Chatbots bereits kommunizieren können. Die Maschine wird tatsächlich immer menschlicher. Ob dies wirklich schon ein Indiz dafür ist, dass Maschinen “uns mit ihrer Intelligenz” überholen, wie Christoph Kucklick diese Anekdote liest, ist eine andere Frage.

Interessant ist, dass diese Anekdote noch eine zweite Lehre liefert, eine, die wir in den Debatten zu Mensch-Maschine-Interaktion absolut übersehen. Es ist nicht nur die Maschine in Form von Ivana, die erstaunlich menschlich war. Es ist auch der Mensch in Form von Robert, der durch wenig Input ein schnelles unkritisches Urteil fällte, der also erstaunlich maschinell agierte. Das ist nicht ein Algorithmus, der so clever ist wie Robert. Da ist auch ein Robert, der so reflexionsarm agiert wie ein Computerprogramm.

Denn Robert Epstein wähnte sich in menschlicher Gesellschaft, weil die Erwartungen an diese so gering waren. Hätte er die Dame auf Blinýs eingeladen oder sie gar angerufen, wäre der Schein erloschen. Am anderen Ende der Leitung ist niemand. Mensch und Maschinen treffen sich also in der Mitte. Was sind die Mechanismen dahinter?

Die Menschine ist programmierbar

Der erste Mechanismus besteht darin, dass wir mehr und mehr programmierbar werden. Diese Programmierbarkeit zwingt uns immer mehr in ein maschinelles Menschenkorsett, ohne es wirklich zu merken. Techno-social engineering nennen das die Autoren Selinger und Frischmann, zwei führenden Experten im Bereich “Gesellschaftliche Auswirkungen der künstlichen Intelligenz”. Im techno-social Engineering werden technologische mit sozialen Werkzeuge kombiniert genutzt, um im Web unser menschliches Verhalten zu beeinflussen, an den richtigen Stellen zu nudgen oder sogar ganz neu zu konstruieren. Ivana ist dafür nur ein sehr primitives Beispiel, auch wenn sie immerhin das sehr komplexe Gefühl eines erotischen Interesses ausgelöst hat. Ein ganz anderes Level aber wird erreicht, als Facebook 2014 in einem gigantischen sozialen Experiment die Gefühle von 700.000 Nutzern verändert. In diesem Mood Manipulation Experiment sahen die ausgewählten Nutzer verzerrte Ergebnisse ihrer Freunde und reagierten entsprechend mit ebenfalls angepassten Emotionen. Dann im Dezember 2016 beschrieb ein Artikel im Schweizer Das Magazin, erstens, wie wenige Likes genügen, um eine Einschätzung über eine Person zu treffen (10, um besser als seine Arbeitskollegen zu sein) und zweitens, wie sich dadurch ein Mikrotargeting ermöglichen lässt, welches die Wahl in den USA beeinflusst haben sollte. In beiden Experimenten ließ sich der User programmieren.

Dabei ist techno-social Engineering per se nicht das Problem: Jede Kultur lebt davon bestimmte Normen zu formen oder bestimmtes Verhalten zu belohnen. Auf der Arbeit, in der Schule, selbst in der Familie findet auch eine Art Engineering statt. Während wir uns aber von anderen Bereichen, wo Verhalten geformt wird, auch distanzieren können, weil sie eben nur ein Ort sind, ist beim digitalen techno-social engineering die Präsenz totaler. Offline zu sein, wird immer mehr zu einer absurden, kaum durchsetzbaren Vorstellung. Die digitale Sphäre ist eben kein Ort, sondern vielmehr ein Filter der sich zwischen uns und die Umwelt legt und eine digiloge Welt konstruiert, wie der zweite Mechanismus zeigen wird.

Die Menschine ist über Schnittstellen an die Umwelt montiert

Der erste Mechanismus zeigt wie Programmierbarkeit möglich gemacht wird, der zweite Mechanismus baut darauf auf und geht eine Stufe weiter. Nicht nur Verhalten wird geformt, wir verlagern auch unsere Erlebnis- und Erfahrungsräume in die digitale Sphäre. Und ermöglichen damit, dass sich unsere Wahrnehmung filtern lässt.

Als um die Jahrtausendwende die ersten Kochshows im Fernsehen liefen, bestand der Clou in den Augen der Produzenten darin, dass man sich danach die Rezepte mailen lassen konnte. Doch daran hatte fast niemand Interesse. Denn: Es ging gar nicht um das Nachkochen, es ging nur darum, anderen beim Kochen zuzusehen. Heute ist uns das allen klar: Wir schauen uns in Realityshows an, wie andere leben, in Lets Play-Videos, wie andere gamen und in Unboxing-Videos, wie andere neue Produkte auspacken z.b. Sneaker oder Platten. Und finden das zutiefst befriedigend.

Der Philosoph Robert Pfaller gruppiert diese Phänomene unter dem Begriff Interpassivität. Interpassivität bedeutet, die Handlungen, die uns Genuss versprechen, zu delegieren und auf Externes zu verschieben. Zum Beispiel auf die Kamera. Sie genießt an unserer Stelle den Blick auf den Strand, das Meer oder die Sehenswürdigkeiten. Dazu gehört auch der notorische Zwang beim Essen, erstmal ein Foto vom Essen schießen zu müssen. Wir müssen zwar immer noch selber essen aber die Kamera isst zuerst, wie es der Internetforscher Robert Simanowski so schön sagt. Unser wahrer Genuß ist dann der Like-Button.

Für Pfaller ist der Grund dahinter der folgende: Das Individuum will nicht mit dem ultimativen Genuss konfrontiert werden, es schützt sich geradezu vor echter Anteilnahme. Irgendwo zu sein, live und direkt, wo man nicht jeden Tag ist, scheint im Sinne der Interpassivität manchmal schlicht und ergreifend zu viel, zu intensiv für uns zu sein und uns zu verletzbar zu machen.

Diese Begründung kann man kaufen, muss man aber nicht. Wichtig ist: Wir schieben durch dieses Phänomen der Interpassivität Zwischenebenen in unsere Erlebniswelt. Wie die Kamera, das Chatprogramm, das Unboxing-Video. Der Genuss wird schon vorverdaut. Diese Zwischenebenen ermöglichen es dann durch techno-social engineering gestaltet zu werden und damit Output und Input zwischen Menschen und ihrer sozialen Umwelt zu steuern. Und genau dies ermöglichte auch dem Chatbot Ivana Schmetterlinge im Bauch des Computerwissenschaftlers auszulösen. Die Unterhaltung, fand auf einem Chatkanal statt, der die Unterschiede zwischen Bot und Mensch erst verschwinden lässt. Wie eine Maschine können wir uns programmieren lassen, weil wir über weitere Maschinen durch Schnittstellen und Produktionsabläufe an unsere Umwelt montiert sind.

Fortsetzung folgt…

Hans Rusinek is a innovation consultant at Sturm und Drang and mainly works on the development of user-centered business models within digital transformation. Furthermore he is an editor at Transform Magazin and writes about questions of the good life in a changing society. He studied economics, philosophy and international politics in Bayreuth and London. 

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Hans Rusinek

Explore Research issue in focus

Man sieht einen leeren Büroraum ohne Möbel und braunen Teppichboden. Das Bild steht sinnbildlich für die Frage, wie die Arbeit der Zukunft und digitales Organisieren und Zukunft unseren Arbeitsplatz beeinflusst. You see an empty office room without furniture and brown carpeting. The image is emblematic of the question of how the work of the future and digital organising and the future will influence our workplace.

Digital future of the workplace

How will AI and digitalisation change the future of the workplace? We assess their impact, and the opportunities and risks for the future of work.

Sign up for HIIG's Monthly Digest

and receive our latest blog articles.

Further articles

two Quechuas, sitting on green grass and looking at their smartphones, symbolising What are the indigenous perspectives of digitalisation? Quechuas in Peru show openness, challenges, and requirements to grow their digital economies

Exploring digitalisation: Indigenous perspectives from Puno, Peru

What are the indigenous perspectives of digitalisation? Quechuas in Peru show openness, challenges, and requirements to grow their digital economies.

eine mehrfarbige Baumlandschaft von oben, die eine bunte digitale Publikationslandschaft symbolisiert

Diamond OA: For a colourful digital publishing landscape

The blog post raises awareness of new financial pitfalls in the Open Access transformation and proposes a collaborative funding structure for Diamond OA in Germany.

a pile of crumpled up newspapers symbolising the spread of disinformation online

Disinformation: Are we really overestimating ourselves?

How aware are we of the effects and the reach of disinformation online and does the public discourse provide a balanced picture?