Wie lehren wir Roboter richtig von falsch?

Algorithmus entdeckt Fälschungen auf Social-Media-Robotern richtig falsch EthikAnmerkung des Herausgebers: Digital Trends hat sich mit WebVisions, der international anerkannten Konferenz für Design, Technologie und User Experience, zusammengetan, um Douglas Rushkoff auf die diesjährige Veranstaltung in Portland, Oregon, zu bringen. Im Rahmen unserer Partnerschaft freuen wir uns auch, ausgewählte Inhalte aus dem aufschlussreichen Blog von WebVisions, Word, zu präsentieren. Diese Woche fragt sich Mark Wyner, wie wir künstliche Intelligenz richtig von falsch lehren. Genießen!

Twitter hat zugegeben, dass 23 Millionen (8,5 Prozent) seiner Benutzerkonten autonome Twitterbots sind. Viele sind dazu da, die Produktivität zu steigern, Forschung zu betreiben oder sogar Spaß zu haben. Dennoch wurden viele mit schädlichen Absichten geschaffen. In beiden Fällen ist bekannt, dass sich die Bots mit fragwürdiger Ethik verhalten - vielleicht weil sie nur geringfügige Exemplare künstlicher Intelligenz (KI) sind.

Die Menschen bauen derzeit weitaus ausgefeiltere Maschinen, die sich in monumentalen Maßstäben ethischen Fragen stellen müssen. Auch in der Sterblichkeit von Menschen. Wie stellen wir also sicher, dass sie zu gegebener Zeit die richtigen Entscheidungen treffen?

Bauen Sie es ein oder bringen Sie es bei

Der Schlüsselfaktor für den erfolgreichen Bau autonomer Maschinen, die symbiotisch mit Menschen zusammenfallen, ist die Ethik. Grundsätzlich gibt es zwei Möglichkeiten, Ethik in Maschinen zu programmieren:

Erstens können Sie sie fest in ihre Betriebssysteme codieren. Hier geht es darum, dass Ethik subjektiv ist. Die Ethik in der Maschine hängt von der Ethik in ihrem Schöpfer ab. Aber wir Menschen stimmen nicht immer mit unserer Moral überein. Wir führen Kriege um ethische Unterschiede. Wenn wir also autonome Maschinen bauen, um ethisch zu handeln, bauen wir innerhalb der Grenzen unserer bestehenden Unterschiede.

Roboter-richtig-falsch-Ethik-2

Zweitens können Sie einige Richtlinien bereitstellen und dann der Maschine erlauben, ihre eigene Ethik basierend auf ihren eigenen Erfahrungen zu lernen. Dieser passive Ansatz lässt viel Raum für Fehlinterpretationen der Moral, abhängig davon, welche Verhaltensweisen beobachtet werden. Betrachten Sie den jüngsten Zusammenbruch von Microsofts Twitter-KI Tay, der dazu verleitet wurde, rassistische Beleidigungen zu twittern und den Völkermord zu fördern, basierend auf einer falschen Schlussfolgerung einer akzeptierten ethischen Normalität.

Ein Team von Georgia Tech arbeitet an letzterem und lehrt kognitive Systeme, wie man sich durch das Lesen von Geschichten sozialverträglich verhält. Ein Belohnungssystem namens Quijote soll kognitiven Systemen helfen, Protagonisten in Geschichten zu identifizieren, mit denen die Maschinen ihre eigenen Werte mit denen der Menschen in Einklang bringen. Es ist unklar, welche Methoden Microsoft mit Tay verwendet hat. Aber wenn ihre Techniken präventiv waren, wie beim Lernsystem von Georgia Tech, sind wir weit davon entfernt, die Ethik in der künstlichen Intelligenz zu festigen.

Ethische Lähmung

All dies basiert auf der Idee, dass ein Computer sogar Ethik verstehen kann. Wie Alan Winfield in seiner Studie Towards an Ethical Robot zeigt , ist das Ergebnis unvorhersehbar und oft lähmend, wenn ein Computer auf ein ethisches Paradoxon stößt. In seiner Studie wurde ein kognitiver Roboter (A-Roboter) gebeten, einen „menschlichen“ Roboter (H-Roboter) vor der Gefahr zu retten. Als der A-Roboter nur einen von zwei H-Robotern retten konnte, schwankte er und räumte in seiner eigenen Verwirrung ein, ohne einen zu retten.

Es gibt eine alte philosophische Debatte darüber, ob Ethik eine Frage der Vernunft oder der Emotion ist. Unter modernen Psychologen besteht Einigkeit darüber, dass ethische Entscheidungen sowohl rationale als auch emotionale Urteile erfordern. Wie Professor Paul Thagard in einem Artikel zu diesem Thema feststellt, „sind ethische Urteile oft sehr emotional, wenn Menschen ihre starke Zustimmung oder Ablehnung verschiedener Handlungen zum Ausdruck bringen. Ob sie auch rational sind, hängt davon ab, ob die kognitive Bewertung, die Teil der Emotion ist, gut oder schlecht durchgeführt wird. “

Entscheidungen mit Konsequenzen

Also, wenn kognitive Maschinen nicht die Fähigkeit zur Ethik haben, wer ist verantwortlich, wenn sie gegen das Gesetz verstoßen? Derzeit scheint niemand zu wissen. Ryan Calo von der School of Law der University of Washington bemerkt: „Die Robotik kombiniert zum ersten Mal die Promiskuität von Daten mit der Fähigkeit, körperlichen Schaden anzurichten. Robotersysteme erledigen Aufgaben auf eine Weise, die nicht im Voraus erwartet werden kann. und Roboter verwischen zunehmend die Grenze zwischen Person und Instrument. “

Der Gesetzgebungsprozess ist mühsam, während die Technologie dagegen exponentiell beschleunigt.

Die Verbrechen können auch sehr schwerwiegend sein. Der niederländische Entwickler Jeffry van der Goot musste sich - und seinen Twitterbot - verteidigen, als die Polizei an seine Tür klopfte und sich nach einer Morddrohung erkundigte, die von seinem Twitter-Account gesendet wurde. Dann gibt es Random Darknet Shopper; Ein Shopping-Bot mit einem wöchentlichen Freibetrag von 100 US-Dollar in Bitcoin, um bei Darknet Einkäufe für eine Kunstausstellung zu tätigen. Schwedische Beamte waren nicht amüsiert, als sie Ecstasy kauften, die der Künstler ausstellte. ( Zur Unterstützung des künstlerischen Ausdrucks beschlagnahmten sie die Drogen jedoch erst am Ende der Ausstellung. )

In beiden Fällen taten die Behörden, was sie im Rahmen des Gesetzes konnten, begnadigten jedoch letztendlich die menschlichen Eigentümer, weil sie keine expliziten oder direkten Verbrechen begangen hatten. Aber wie übersetzt sich das, wenn ein Mensch eine KI mit der Absicht der Bosheit entfesselt?

Die ironische Realität ist, dass wir nach Wegen suchen, wie wir unsere autonomen Maschinen steuern können. Und abgesehen von unserer fragwürdigen Fähigkeit, ihnen Ethik beizubringen, sind wir oft nur durch ihr allgemeines Verhalten amüsiert. Bei der Erörterung der Methoden hinter ihren neuronalen Netzen stellte der Google-Softwareentwickler Alexander Mordvintsev fest: „… obwohl dies sehr nützliche Werkzeuge sind, die auf bekannten mathematischen Methoden basieren, verstehen wir tatsächlich überraschend wenig darüber, warum bestimmte Modelle funktionieren und andere nicht.“

Können wir mithalten?

Alles in allem ist der Prozess der Gesetzgebung mühsam langsam, während die Technologie andererseits exponentielle Eile macht. Vivek Wadhwa von der Singularity University erklärt: „Die Gesetze können nicht mithalten, weil… Gesetze im Wesentlichen eine kodifizierte Ethik sind. Dass wir als Gesellschaft einen Konsens darüber entwickeln, was gut und was schlecht ist und dann wird es richtig und was falsch, und dann wird es legal und was illegal. So geht der Fortschritt. Bei den meisten dieser Technologien haben wir nicht entschieden, was gut oder schlecht ist. “

Wenn das Gesetz aufholt, schreiben wir möglicherweise unser eigenes Schicksal. Das ganze Gerede über Roboter, die die Welt erobern? Vielleicht jaywalken sie nur massenhaft, bis wir so viel von unserer Rasse einsperren, dass wir in autonomen Wesen zur Minderheit werden. Schachmatt.