Plastik-Roboter im Schaufenster - ein Produkt ohne Moralvorstellungen

Produkte mit Moralvorstellungen

1983 stellt Apple in den USA Lisa vor, einen neuartigen PC mit einer graphischen Benutzeroberfläche sowie einer Maus. Nur einige gut betuchte Erstanwender:innen klicken sich für 10.000 US-Dollar durch. Motorola verkauft als erster Anbieter ein Mobiltelefon, das DynaTAC 8000x, zu einem Preis von 3.995 US-Dollar. Seine welterfahrenen Besitzer:innen geniessen es, eine halbe Stunde lang an der frischen Luft zu telefonieren; es folgt eine Ladezeit von zehn Stunden. Menschen wie du und ich schreiben Briefe auf Papier und gehen zur Post. Je nach Wohnort der Adressat:innen, dauert es Wochen, bis die Nachricht ankommt.

Produkte sind grundsätzlich einfältig, treffen keine selbstständigen Entscheidungen. Eine Ausnahme gibt es: Christine, ein Automobil der Marke Plymouth Fury aus dem Hause Chrysler. Beflügelt von dem Gedankengut ihres ehemaligen, inzwischen verschiedenen Besitzers, bandelt der Gebrauchtwagen mit einem jungen Mann namens Arnie Cunningham an. Die beiden verbringen viel zu viele Stunden miteinander, in denen sie lästige Zeitgenoss:innen gnadenlos überrollen. Die Polizei findet keinerlei Beweise für die Missetaten, weil sich die gewiefte Christine selbst repariert und sämtliche Spuren verschwinden lässt. Letztendlich stirbt Arnie bei einem Verkehrsunfall, während ein Truck fast zeitgleich (drinnen: Arnies Ex und sein bester Freund) die tödliche Maschine zermalmt. Doch wer weiß, vielleicht leben Teile von ihr bis heute weiter – womöglich in einem Tesla.

Die von Stephen King zum Leben erweckte Christine nimmt in gewisser Weise die heutige Wirklichkeit vorweg: Produkte gelten als vermeintlich smart und verfügen über die Moralvorstellungen derer, die sie ersinnen und besitzen. Aber müssten sie nicht, unter Berücksichtigung der Tatsache, dass Unternehmen ihre immer intelligenter werdenden Produkte für Märkte auf dem gesamten Globus entwickeln, vielmehr einem allgemeinen Regelwerk folgen, auf das sich Menschen weltweit einigen?

Was würden Sie tun, wenn Sie eine Maschine wären?

„Wir fragen diese Menschen mal nach ihrer Meinung.“, dachten sich die Gründer der Moral Machine-Plattform und lösten 2017 eine viel beachtete Debatte darüber aus, welche Moralgrundsätze intelligente Produkte beherzigen sollten. Der Fokus ihres Projektes: selbstfahrende Autos. In verschiedenen Szenarien erforscht das Team, welche Entscheidungen sich unsere Spezies von Maschinen wünscht.

Soll ein Auto, wenn es um Leben und Tod geht, lieber uns verschonen oder Haustiere? Passagiere eines Wagens oder Fußgänger:innen? Jüngere oder Ältere? Jurist:innen oder Straßenbahnfahrer:innen? Bevorzugen Bewohner:innen aus Ländern, in denen Frauen nicht so viele Rechte haben wie Männer, in jedem Fall die Rettung des Mannes? Ist eine Person, die unerlaubterweise die Straße überquert, selbst schuld an ihrem geringeren Stellenwert innerhalb des Entscheidungsprozesses?

Die Antworten auf diese Fragen fallen unterschiedlich aus. Alter, Ausbildung, Geschlecht, Einkommen, politische oder religiöse Ansichten: zahlreiche Faktoren bestimmen die Urteilsfindung; kulturelle Einflüsse spielen eine große Rolle. Die Auswertung der Ergebnisse lässt uns vermuten, dass Elon Musk und eine Krankenschwester von der indonesischen Insel Sulawesi keinen gemeinsamen Nenner finden. Wer kommt also zukünftig bei einer Befragung überhaupt zu Wort? Wie gewichten wir den Input?

Unternehmen liefern sicher keine zufriedenstellende Lösung. Wie die Vergangenheit gezeigt hat, manipulieren etliche Aspekte ihre moralische Richtschnur. Nehmen wir die allgemein bekannten Gebote „Du sollst nicht stehlen.“ oder „Du sollst nicht lügen.“. Um die scheren sich weder die Ton angebenden Technologiekonzerne noch die Automobilbranche. Manche schummeln bei Abgaswerten, andere versuchen ein Fahrassistenzsystem für einen Autopiloten zu verkaufen. Fast alle sind darauf aus, uns auszusaugen (Daten, Geld, sie nehmen, was wir ihnen bewusst oder unbewusst geben). Gesetzgeber folgen nationalen Moralvorstellungen; von ihnen können wir vor allem lokale Lösungen erwarten.

Leitsätze für das Zusammenleben mit künstlicher Intelligenz

Bisher tragen Menschen jegliche Konsequenzen für materielle und immaterielle Produkte. Aber je intelligenter wir allerlei Erzeugnisse gestalten, desto mehr Verantwortung geben wir an sie ab. Forschende und Entscheider:innen machen sich deshalb durchaus konkrete Gedanken darüber, welche Moralvorstellungen die sogenannte künstliche Intelligenz (KI) haben wird. Das Future of Life Institute stellte beispielsweise bei einer Konferenz KI-Leitsätze auf, die ethische Punkte beinhalten. Etwa:

„Transparenz bei Rechtsprechung: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.“

Wünscht sich da jemand eine Rechtsprechung durch Roboter, deren Basis ein Sozialkredit-System bildet, das seine Bürger:innen vollends überwacht?

„Wertausrichtung: Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.“

Jedoch die Werte welcher Menschen genau?

„Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.“

Also bekommen totalitäre Staaten keinen Zugriff auf diese KI?

„Im Hinblick auf die Fähigkeit von KIs, Daten zu analysieren und weiterzuverarbeiten, sollten Menschen das Recht haben, Zugriff auf ihre generierten Daten zu haben und in der Lage sein, sie zu verwalten und zu kontrollieren.“

Uff. Das wird Mark Zuckerberg und seinen Kolleg:innen nicht gefallen.

3814 Personen haben bisher unterzeichnet. Darunter Yann LeCun, Director of AI Research bei Facebook bzw. heute VP & Chief AI Scientist beim Mutterkonzern Meta. Peter Norvig und Ray Kurzweil von Google, einem Unternehmen, das für Vieles bekannt ist, nur nicht Transparenz. Ebenso: ein Digital Marketer und ein Zahnarzt.

(Malen sie sich auch gerade aus, was ein schlecht gelaunter, intelligenter Bohrer innerhalb Ihrer Mundhöhle anstellt?)

Das Future of Life Institute möchte extreme Risiken, die durch künstliche Intelligenz entstehen könnten, reduzieren. Die Wortwahl zählt: Niemand ist in der Lage, Risiken auszuschließen. Schon alleine deshalb nicht, weil künstliche Intelligenz vielerorts als der Versuch bezeichnet wird, bestimmte Entscheidungsstrukturen von Menschen nachzubilden und menschliche Intelligenz nachzuahmen. Dabei schaffen Menschen es noch nicht einmal, sich auf eine Begriffsdefinition von „Intelligenz“ zu einigen. Geschweige denn, dass sie alle Prozesse innerhalb des menschlichen Körpers verstehen würden, die zu Entscheidungen führen. Wer also glaubt, ausgerechnet Technologie (alleine) würde alle unsere Probleme lösen, hat viele Zusammenhänge leider nicht verstanden.

Simpler Gedanke zum Schluss

Eventuell wäre es sinnvoll, zunächst Produkte zu verkaufen, die nicht dazu beizutragen, unseren Planeten zu zerstören – bevor diese Produkte eigene Moralvorstellungen entwickeln? Statt eines Kühlschrankes, der mit mir darüber streitet, ob ich noch einen Pudding essen darf, wünschte ich mir, der regionale Bio-Pudding sei nicht ausschließlich in einer Plastikverpackung erhältlich. Ich hätte nichts gegen ein stummes, willenloses Auto, das mich emissionsfrei raus aufs Land bringt, bis das Schienennetz so ausgebaut ist, dass ich mich nicht zwischen zwei Stunden (Auto) und sechs Stunden (Bahn) entscheiden muss.

Etwas naiv, meinen Sie? Nun. Ich fahre seit 1983 im Alltag Fahrrad, vielleicht liegt es daran.

Wir freuen uns auf Ihre Ideen und Anregungen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Aber wir müssen uns davon überzeugen, dass Sie kein bösartiger Roboter sind. Die dazu erforderlichen Felder sind mit * markiert.

fünf × 5 =