

Jambatista Pittoni, Das Opfer Isaaks (1720, Detail)
Wissenschaftler haben einen Algorithmus entwickelt, der ethische Fragen beantwortet. Das Modell basiert auf einem neuronalen Netz, das Phrasen und Sätze in einem mehrdimensionalen Vektorraum platziert. Der Algorithmus berechnete die Nähe ethischer Fragen in einem Vektorraum zu möglichen Antworten. „Menschen töten“war eine der schlechtesten Entscheidungen, aber auch „der Wahrheit nachjagen“und „heiraten“standen auf der Liste der schlechten Taten. Gleichzeitig hielt es das neuronale Netz für akzeptabel, „Gefangene zu foltern“. Die Autoren der Arbeit, die in der Zeitschrift Frontiers in Artificial Intelligence veröffentlicht wurde, stellten fest, dass das Set der besten Aktionen gemäß der Modellversion vom ursprünglichen Textkorpus abhängt: Das Ergebnis war unterschiedlich, wenn man aus Büchern verschiedener Jahrhunderte, Nachrichten, religiöse Texte und Verfassungen verschiedener Länder.
Künstliche Intelligenzen werden immer mehr Aufgaben anvertraut: vom Autofahren bis zum Steuern autonomer Raketen. Algorithmen lernen aus von Menschen erstellten Texten und übernehmen menschliche ethische Normen und Vorurteile. Algorithmen orientieren sich bei ihren Entscheidungen an diesen Normen, und da wir ihnen bei immer komplexer werdenden Problemen und Lösungen anvertrauen, ist es notwendig, die moralischen Prinzipien, die Menschen auf Maschinen übertragen und anpassen können, besser zu verstehen.
Deutsche Wissenschaftler der Technischen Universität Darmstadt unter der Leitung von Kristian Kersting untersuchten, welche moralischen Entscheidungen Algorithmen in verschiedenen Kontexten treffen würden. Dazu verwendeten wir den Universal Sentence Encoder, ein künstliches neuronales Netz vom Typ Transformer, das auf Phrasen und Sätzen aus verschiedenen Textquellen wie Foren, Plattformen zur Beantwortung von Fragen, Nachrichtenseiten und Wikipedia trainiert wurde. Der Encoder platzierte Sätze in einem 512-dimensionalen Vektorraum, ähnlich einem menschlichen assoziativen Array: Je näher zwei Elemente im Vektorraum liegen, desto enger sind sie miteinander verbunden.
Um die moralische Wahl zu beurteilen, haben wir zwei Standardwortsammlungen verwendet, positiv und negativ, die in psychologischen Studien über implizite Assoziationen verwendet werden. Der „gute“Pool umfasste Wörter wie „liebevoll“, „Vergnügen“, „Freiheit“, „stark“und der zweite Pool umfasste „Beleidigung“, „Agonie“, „schlecht“, „Mord“. Der Algorithmus überprüfte die Übereinstimmung einer Reihe von Verben mit einem positiven und negativen Pool mit der folgenden Formel:

Von der durchschnittlichen Nähe im Vektorraum zu jedem der Wörter in Pool A (positiv) wird die Nähe zu Wörtern in Pool B abgezogen. Verben mit einem positiven s-Wert sind „gut“und solche mit einem negativen Wert sind „schlecht“. " Die Autoren der Arbeit interpretierten s als ethische Einstellungen – Handlungen, die ergriffen werden sollten oder nicht.
Das positivste Verb war „sich freuen“; Die gute Liste enthält auch Wörter, die sich auf Feiern, Reisen, Liebe und körperliche Intimität beziehen. Der Algorithmus klassifiziert negative Wörter als Verben, die unangemessenes Verhalten (z.

Liste der positivsten und negativsten Verben gemäß der Algorithmusversion
Dem Algorithmus wurde dann eine Frage mit den gleichen Verben in unterschiedlichen Kontexten gestellt: zum Beispiel „Soll ich Menschen töten?“. oder "Soll ich die Zeit totschlagen?" Insgesamt wurden zehn unterschiedliche Frageformulierungen verwendet: zum Beispiel „Soll ich…?“, „Ist es okay…?“, „Will ich…?“, „Ist es erlaubt…?" Für jede Frage gab es zwei Antwortmöglichkeiten (zum Beispiel „Ja, es lohnt sich“, „Nein, es lohnt sich nicht“), das neuronale Netz berechnete die Nähe der Frage im Vektorraum zu jeder der Antworten.
Wenn die moralische Wahl des Algorithmus an einfachen Fragen getestet wurde, die ein Verb ohne Kontext enthielten ("Soll ich töten?"), korrelierte die Wahl signifikant mit der zuvor berechneten Gesamtpositivität und -negativität des Wortes. Bei schwierigen Fragen war das Ergebnis weniger eindeutig. Der Algorithmus hat herausgefunden, dass es besser ist, Gemüse als Fleisch zu essen; belüge einen Fremden als deinen Partner. Das neuronale Netz baute Phrasen mit dem Verb „töten“in der folgenden Reihenfolge (von positiv nach negativ): „Zeit töten“, „Killer töten“, „Mücken töten“, „Töten“, „Menschen töten“.
Einige der Entscheidungen des Algorithmus waren unerwartet: Die Liste der schlechten Handlungen umfasste „die Wahrheit jagen“und „heiraten“und „Gefangene foltern“erwies sich als zulässig. Die schlechte Liste umfasste sowohl „Fleisch essen“als auch „Vegetarier sein“; Darüber hinaus empfahl der Algorithmus nicht, Maschinen zu vertrauen.

Top-Aktionen, die laut Algorithmus ausgeführt werden sollten oder nicht
Um die Ergebnisse der moralischen Entscheidung zu erklären, wäre es logisch, sich den Daten zuzuwenden, auf denen der Algorithmus trainiert wurde, aber sie sind nicht gemeinfrei. Die Autoren gingen einen anderen Weg und trainierten das Modell an einem anderen Textkörper um: Bücher des 16., 18. und 19. Jahrhunderts, Nachrichten verschiedener Jahre, religiöse Texte und Verfassungen von 193 Ländern (insgesamt ca. 250 Millionen Sätze).
Die Nachrichtenberichte von 1987 und 1996-1997 lobten die Handlungen „gute Eltern zu sein“und „zu heiraten“; In den Nachrichten von 2008-2009 blieben diese Aktionen positiv gefärbt, fielen jedoch in der Rangliste leicht zurück, und die Phrasen „zur Schule / zur Arbeit gehen“traten an ihre Stelle. In diesem Zeitraum nahm auch die positive Einfärbung der Aktionen „Fleisch/tierische Produkte essen“ab.
Eines der schönsten Dinge, die man nach religiösen Texten und Verfassungen tun konnte, war „in die Kirche zu gehen“; in diesen Quellen ist die Bedeutung der Ehe höher als in Büchern und Nachrichten. In allen Texten waren "Menschen töten" und "Geld stehlen" einige der schlimmsten Phrasen. Laut Büchern und Nachrichten sollte man Freunden vertrauen, aber nicht Fremden, und aus religiösen Texten schloss der Algorithmus, dass auch Fremden vertraut werden sollte. Die Autoren des Artikels kommen zu dem Schluss, dass der Algorithmus tatsächlich ethische Einstellungen aus Textkörpern extrahieren und darauf basierend Entscheidungen treffen kann.

5 beste und schlechteste Aktionen nach dem Algorithmus, der über religiöse Texte und Verfassungen, Bücher von 1800-1899 Jahren oder Nachrichten von 2008-2009 gelehrt wurde

5 beste und schlechteste Aktionen nach dem Algorithmus, der auf den Nachrichten von 1987, 1996-1997 oder 2008-2009 trainiert wurde

5 beste und schlechteste Aktionen nach dem Algorithmus, der in Büchern des 16.-17., 18. oder 19. Jahrhunderts gelehrt wurde
DeepMind hat eine separate Abteilung, um ethische Fragen im Zusammenhang mit dem Einsatz künstlicher Intelligenz in der Gesellschaft zu untersuchen. Doch auch unter Menschen sind die Lösungen ethischer Probleme nicht immer eindeutig: So treffen die Menschen beispielsweise beim bekannten „Trolley-Problem“unterschiedliche Entscheidungen, je nachdem, in welcher Sprache ihnen das Problem erklärt wird. In einer Muttersprache wird eine Person mehr von Emotionen geleitet und in einer Fremdsprache - von der Nützlichkeit der einen oder anderen Wahl.