Anthropomorphisierung von Algorithmen und reale Konsequenzen

Lesedauer: 6 Minuten

Anthropomorphisierung: Der Ball rollt. Das Auto fährt. Der Algorithmus berechnet.

Selbstverständlich gibt keinen Grund dafür Algorithmen als Akteure der Datafizierung zu beschreiben. Trotzdem scheint der Verweis auf menschliches Handeln weit weniger klar, als bei einem Auto oder Ball. Das mag mehrere Gründe haben. So ist es in unserer Vorstellungswelt bereits angelegt, dass Maschinen – allen voran Computer – Bewusstsein zugeschrieben werden kann. Die Begriffe künstliche Intelligenz, autonomes Fahren oder Maschinenlernen erzwingen solche Assoziationen geradezu. Die Idee einer von Menschen erschaffenen Maschine, die über eine dem Menschen gleich Form von Intelligenz verfügt, finden sich früh, sowohl in der Wissenschaft (Julien Offray de La Mettrie: L’Homme-Machine 1748), als auch in der frühen Science-Fiction (Mary Shelley: Frankenstein 1818). Viele Technikbegeisterte waren von dieser Idee fasziniert, wodurch sie ihren Teil zum technischen Fortschritt beitrug und dies immer noch tut.

Bis zum heutigen Zeitpunkt fällen Maschinen jedoch keine Entscheidungen. Im Falle des Algorithmus sind Resultate in den Daten und dem vorgegebenen Bewertungsmuster determiniert, sie werden lediglich durch ihn sichtbar gemacht. Welche Entscheidung vorliegt bestimmt der Mensch, indem er die Kriterien der Entscheidung bestimmt. Und natürlich kann das dann überraschen, denn die Datenmenge ist für Menschen quantitativ natürlich nicht verarbeitbar.

Die technischen Tatsachen sind jedoch nur ein Teil – vermutlich sogar der kleinere – einer Erklärung des Einflusses der Digitalisierung auf unser Zusammenleben. Das Handeln vieler orientiert sich an der festen Gewissheit einer Zukunft, in der menschengleiche Maschinen existieren werden. Der Streit darüber, ob es sich dabei um einen Moment der Erlösung für die Menschheit oder deren Untergang handelt wird bereits seit Jahrzehnten geführt. Die Aufgabe der Soziologie ist es diese Handlungmotive und die damit verbundenen Ängste und Hoffnungen ernst zu nehmen. Damit das geschehen kann muss die normative und auf die Antizipation der Zukunft gerichtete Komponente der Sprache über Technologie ins Bewusstsein geholt werden.

Der Ball rollt und wird das auch in Zukunft nur machen, wenn ihn jemand tritt. Das Auto fährt, wie lange es dafür noch einen Menschen benötigt, scheint bereits vielen ungewiss. Der Algorithmus berechnet und es macht den Anschein, als wäre dieser Vorgang heute schon in der Vorstellungswelt vieler eine Eigenleistung der Technologie.

Wenn Armin Nassehi in seinem neuen Buch zur Digitalisierung  Muster darüber schreibt, dass der Algorithmus Muster berechnet, Daten analysiert oder verarbeitet scheint es, als würde dem Leser eine solche Fantasie präsentiert. Während einem ganzen Kapitel wird der Algorithmus als Akteur stilisiert, ohne dabei auf das technische Handeln dahinter auch nur im Ansatz zu verweisen. Nun soll dem Autor keinerlei Absicht in dieser Hinsicht unterstellt werden, da dieser sich den Hintergründen gewiss bewusst ist. Es handelt sich, so meine Vermutung, um ein Stilmittel. Dieses soll zum einen das Argument verdeutlichen, dass sich Daten stets nur wieder auf Daten beziehen. Zum anderen wird so die, oft selbst für Entwickler nicht mehr zu bewältigende [1], Komplexität im Zusammenspiel zwischen Algorithmen ausgeklammert.

Nun lässt sich anhand dieser Art über Technologie zu sprechen aber einiges erklären. Wenn wir daran glauben, dass ein Algorithmus eine Eigenleistung vollbringt, dann ist es ein Ding der Unmöglichkeit gewisse Vorgänge in unserer Welt ursächlich zu erklären. Eine Soziologie, die vor die Aufgabe gestellt ist Handeln ursächlich zu erklären, muss dann einen Bruch im Raum des Digitalen erfahren. Technik ist damit, Niklas Luhmann hat diese Möglichkeit bereits gesehen, eine zweite Natur.

Mit einer solchen Vorstellung von bewusster Technologie geht aber noch eine weitere Konsequenz einher: Der Zuweisung bzw. dem Verlust von Verantwortung.

 

Gesellschaftliche Verantwortung als Konstruktion

Der Ball ist ein Gegenstand, der, aufgrund seiner Eigenschaft als runder Gegenstand, von jemandem zum Rollen gebracht werden kann. Ebenso ist das Auto ein Gegenstand – wenn auch ungleich komplexer – das, aufgrund seiner Eigenschaft als motorenbetriebenes Vehikel, von jemandem zum fahren gebracht werden kann.
In beiden Fällen wissen wir, wo die Verantwortung liegt, falls es zu einem Schaden kommt [2]. Ein Ball, der etwa eine Fensterscheibe zerstört kann nur der Vermittler einer menschlichen Handlung sein. Lesen wir von einem Auto, dass einen Passanten verletzt, dann war dieser entweder unvorsichtig, oder der Fahrer hat bewusst oder unbewusst den Zusammenstoß verschuldet. So stellt sich für jedes Abweichen vom Soll-Zustand des Zusammenlebens [3] die Frage der Schuld, gerade im Umgang mit Technologie. Frei von Verschulden sind nur Einflüsse die auf Umwelteinflüsse wie Wetter zurückgehen, also vom Menschen unbeeinflussbare Vorgänge.

Verantwortung und Schuld sind menschliche Kategorien die regeln sollen, wer Verantwortung trägt. In einer konkreten Situation kann nur so die gesellschaftliche Ordnung aufrechterhalten werden und fortbestand haben. Das betrifft zu aller erst den konkreten Handelnden, der um seine Verantwortung weiß. Sich über die Regeln des Straßenverkehrs bewusst zu sein, ist die Aufgabe eines jeden Verkehrseilnehmers. Möglich ist eine solche Wahrnehmung jedoch nur, wenn es eine geltende Ordnung gibt, die mit Zwangsmitteln für eine Zuweisung der Verantwortung sorgen kann: der Staat. Deshalb sind wir auch zum Abschließen einer Haftpflichtversicherung gezwungen. Folgenloses Abweichen von dieser Pflicht würde die Legitimität der Herrschaft negativ beeinträchtigen.

Was damit auch einhergeht ist die Frage der Aushandlung der Verantwortlichkeiten. Diese sind an sich kontingent. Neue Praktiken ziehen deshalb auch immer die Notwendigkeit der Zuweisung von Verantwortung für die Folgen gewisser Handlungen nach sich. Die Straßenverkehrsordnung kann genauso als Folge solcher Prozesse betrachtet werden, wie die EASA-Grundverordnung, die den Gebrauch privater Drohnen regelt. Dabei geht es immer um den Menschen, der die Technik einsetzt. Etwas anders ist die Sachlage bei Akteuren, die gar nicht, oder nur teilweise zurechnungsfähig sind. Für Kinder haften die Eltern und für Haustiere ihre Halter und auch dafür gibt es Pflichten zur Versicherung gegen Risiken.

Sprechen wir nun also vom Algorithmus als Akteur, dann kann dies praktische Konsequenzen dafür haben, wer im Schadensfall aufkommt. Da der Einsatzbereich von Algorithmen im Zuge der Digitalisierung in immer mehr Bereichen Anwendung findet, weitet sich auch die Relevanz dieser Frage aus.

Nun würde eine solche Aushandlung normalerweise im Rahmen dessen verlaufen, was als Funktion definiert ist. Grob umrissen findet sich der Nutzer in der Verantwortung, wo er die Technik für nicht vorgesehene Bereiche einsetzt. Funktioniert Technik im Rahmen der vorgesehenen Aufgaben nicht, dann ist der Hersteller verantwortlich. Diese Zuweisung muss nicht immer rechtliche Konsequenzen haben oder die Verantwortung vollständig auf einer Seite sehen. Jedoch wird das Spektrum der möglichen Schuldigen benannt, was je nach Vorfall entscheidend ist.

In der digitalen Welt ist die Komplexität jedoch bereits so hoch, dass immer mehr Situationen auftreten in denen Hersteller nicht mehr erklären können, warum Fehler auftreten. In solchen Fällen ist es für das wirtschaftliche Überleben oft entscheidend die Verantwortung abzuwälzen. Im Zweifelsfall auf Maschinen.
So tu sich in dieser Spannungslage durch die Anthropomorphisierung scheinbar eine dritte Option auf [4].

Eine solche Tendenz scheint zwei Probleme aufzuwerfen: Zum einen ist die Zuweisung von Verantwortung eine entscheidende Voraussetzung dafür, dem Zusammenleben eine Form zu geben. Eine dritte Rechtsform wäre demnach ein Problem für den Gestaltbarkeitsanspruch einer demokratischen Gesellschaft. Zum anderen ist der in dieser Möglichkeit zum Ausdruck kommende Interessenkampf der Produzenten gegen die Konsumenten ein entscheidender Punktgewinn für die Produzenten.

Eine solche Zuweisung von Verantwortlichkeiten ist erst durch den im ersten Kapitel beschriebenen Zukunftsglauben ermöglicht worden. Sprechen wir von Maschinen als Akteuren, dann sprechen wir eine Sprache, die Macht bei denjenigen lässt, die etwa Algorithmen nach ihren Vorstellungen gestalten.
Umso mehr es zum Konsens wird Algorithmen als Akteure zu bezeichnen, desto eher werden sie als Verantwortungsträger begriffen. Die Risiken für den Einsatz fallen dann zu Lasten der Allgemeinheit, etwa durch Versicherungsaufwand, Haftungszuweisung oder reduzierte Einflussnahme auf gesellschaftlich relevante Vorgänge.

Die Rückseite der Digitalisierung gerät aus unserer Vorstellungswelt und damit auch aus dem für uns gesellschaftlich Gestaltbaren. Die Stellschrauben der Gesellschaft müssen sichtbar sein. Wenn das nicht der Fall ist, dann ist es gerade unsere soziologische Aufgabe diese sichtbar zu machen und nicht sie zu verdecken.

Wissenschaftler – und Soziologen im speziellen – sind so auch Teil der Konstruktion der Wirklichkeit. Dabei ist es selbstverständlich jedem selbst überlassen seine Position zu wählen. Jedoch muss klar sein, dass die Anthropomorphisierung von Algorithmen eine Positionierung ist, die die Wirklichkeit auch dementsprechend formt.

 

Fußnoten:

[1] Zum Thema Komplexität der Algorithmen berichtet hier ein Entwickler, wie er seinen eigenen Algorithmus nur noch mit der Hilfe einer Heuristik korrigieren kann: https://www.the-tls.co.uk/articles/public/ridiculously-complicated-algorithms

[2] Deshalb wird im Folgenden nur von funktionierender Technik ausgegangen. Die Frage darum, was funktionierende Technik ist, ist eine andere. Prinzipiell ist hier jedoch auch geregelt, was unter die Produkt- bzw. Produzentenhaftung fällt.

[3] Am deutlichsten zu erkennen in der Rechtsordnung, jedoch auch in Normen.

[4] Eine kurze Zusammenfassung über die Relevanz dieser und anderer Fragen der Digitalisierung im Bereich des Rechts findet sich hier: https://algorithmenethik.de/2018/10/30/roboter-sind-auch-nur-menschen-ein-juristischer-blick-auf-die-haftung-fuer-kuenstliche-intelligenz/

Dass daraus ein juristischer Handlungsbedarf entsteht zeigt sich etwa hier: http://www.robotics-openletter.eu/

[5] Das war die Leistung von Marx für die Industriegesellschaft.

Share and Enjoy !

Shares

Beitrag veröffentlicht

in

,

von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*