Wie man Roboter ethisch macht, indem man ihnen beibringt, Nein zu sagen

ai robotern beibringen, wie man keine matthias scheutz büschel sagt Matthias Scheutz Kelvin Ma / Tufts University Ob es Ihr Smartphone ist, das Ihre Lieblingsrestaurants zum Mitnehmen verfolgt, oder Ihr Webbrowser, der überwacht, welche Websites Sie am häufigsten besuchen, es gibt wahrscheinlich eine Technologie in Ihrem Zuhause, die etwas über Sie erfährt.

Da sich Computer in den kommenden Jahren von Werkzeugen zu Assistenten entwickeln, werden die Lernbedürfnisse der Technologie, die wir täglich verwenden, exponentiell zunehmen. Diese Dienste werden anspruchsvoller sein und viel weiter reichen als heute - aber sie müssen viel intelligenter werden, bevor sie dies tun.

Computersysteme, künstliche Intelligenz und Helferroboter müssen die Bücher zu einer ganzen Reihe von Themen lesen - menschliche Konversation, kulturelle Normen, soziale Etikette und mehr. Die Wissenschaftler von heute bringen AI die Lektionen bei, die sie benötigen, um den Benutzern von morgen zu helfen, und der Kursplan entspricht nicht Ihren Erwartungen.

Die ersten Schritte zu einer intelligenteren KI

Im vergangenen Jahr näherte sich ein kleiner Roboter innerhalb der Grenzen des Human-Robot Interaction Laboratory an der Tufts University in Boston der Tischkante. Als der Roboter diesen Abgrund erreichte, bemerkte er, dass die Oberfläche, auf der er ging, zu Ende war, und sagte seinem Bediener: „Entschuldigung, das kann ich nicht.“

Damit bestätigte die Maschine, dass die Arbeiten von Matthias Scheutz und Gordon Briggs erfolgreich waren. Das Paar hatte sich zum Ziel gesetzt, seinem Roboter die Möglichkeit zu geben, eine von einem menschlichen Bediener gestellte Anfrage abzulehnen, wobei der Selbsterhaltungsakt der Testperson auf dem Tisch eine Demonstration des Systems bei der Arbeit war.

Das Projekt von Scheutz und Briggs ist Teil eines wichtigen Forschungszweigs zur künstlichen Intelligenz. Die Mensch-Roboter-Interaktion - manchmal auch als HRI bezeichnet - ist ein wesentliches Element unserer fortgesetzten Arbeit zur praktischen Anwendung von KI. Es ist leicht zu vergessen, dass Roboter sich eines Tages in die Menschen integrieren müssen, denen sie helfen sollen, da Roboter für die meisten noch weitgehend hypothetisch sind.

Einem Roboter das Laufen beizubringen ist eine Sache. Dasselbe Roboter zu lehren, wenn es sicher ist, eine Straße zu überqueren, ist ganz anders. Das ist der Kern des von Scheutz und Briggs durchgeführten Projekts. Sie wollten einem Roboter die Möglichkeit geben, erteilte Befehle abzulehnen, wenn es den Anschein hat, als würde die Ausführung der Aufgabe Schaden anrichten.

Für einen Menschen scheint dies ein implizites Element der Bewegung zu sein. Aber Roboter haben keinen „gesunden Menschenverstand“.

Bedeutung des Wortes "Nein"

Einem Roboter beizubringen, einen Befehl abzulehnen, der ihn in den Untergang stürzt, ist für den Roboter und auch für jeden, der ihn besitzt, von offensichtlichem Vorteil. Aber seine Bedeutung geht viel tiefer. Wenn Sie einem Roboter helfen, „Nein“ zu sagen, lernen Sie, die Auswirkungen seiner Handlungen zu beurteilen.

"So wie wir nicht wollen, dass Menschen blind den Anweisungen anderer Menschen folgen, wollen wir auch nicht, dass anweisbare Roboter menschliche Befehle ausführen, ohne die Auswirkungen zu überprüfen", sagte Scheutz gegenüber Digital Trends.

Wir müssen Robotern beibringen, Befehle zu missachten, die ethisch nicht einwandfrei sind.

„Anweisungen können in einer bestimmten Situation aus vielen Gründen unangemessen sein“, fuhr er fort, „aber vor allem, weil sie Menschen oder Eigentum, einschließlich des Roboters selbst, Schaden zufügen können. Durch Überlegungen zu möglichen Ergebnissen einer angewiesenen Aktion kann der Roboter potenzielle Normverstöße und potenzielle Schäden, die sich aus der Aktion ergeben, erkennen und versuchen, diese zu mindern. “

Wenn der Roboter seine Anweisung zum Vorwärtsgehen erhält, prüft er diese Anforderung im Wesentlichen anhand der ihm vorliegenden Informationen. Wenn etwas faul erscheint, kann der Roboter seine Bedenken gegenüber dem menschlichen Bediener äußern und den Befehl schließlich sofort ablehnen, wenn der Ausbilder keine zusätzlichen Daten hat, um seine Ängste zu beruhigen.

Der wissenschaftliche Prozess ist nicht so eingängig wie die Gefahr eines Roboteraufstands für uns Menschen. Boulevardzeitungen wie die Daily Mail berichteten über Scheutz 'Arbeit mit einer Comic-Überschrift, in der über die bevorstehende Unterwerfung unserer Spezies durch Roboter-Oberherren spekuliert wurde. Es ist bekannt, dass wir hier bei DT auch über die Roboterapokalypse scherzen. Normalerweise macht es Spaß, aber in solchen Fällen kann es den Forschern schaden, ihre Botschaft zu verbreiten.

"Es wird immer Antworten geben, die die Forschung aus dem Kontext nehmen und sich auf das konzentrieren, was uns unangenehm erscheint, wie zum Beispiel die Idee, dass Roboter unseren Befehlen nicht gehorchen", antwortete Scheutz auf den Daily Mail-Bericht. „Der Schlüsselaspekt unserer Forschung, den solche eingängigen Schlagzeilen ignorieren, ist jedoch, dem Roboter beizubringen, Befehle abzulehnen, die nicht ethisch einwandfrei sind  - und nur solche. Im Allgemeinen nicht ungehorsam sein. “

Was wäre, wenn zum Beispiel ein kleiner Junge einem Haushaltsroboter sagte, er solle als Streich heißen Kaffee über seinen kleinen Bruder werfen? Die Sicherstellung, dass dies nicht möglich ist, ist für den Erfolg eines Unternehmens, das solche Technologien für den Verbrauchermarkt herstellt, von entscheidender Bedeutung. Dies ist nur möglich, wenn der Roboter neben seiner Fähigkeit, „Nein“ zu sagen, über eine breite Datenbank sozialer und ethischer Normen verfügt, auf die er zurückgreifen kann. ”

Komplexitätsebenen hinzufügen

Menschen wissen, dass sie aufhören müssen zu laufen, wenn sie sich einem steilen Gefälle nähern oder warum es unangemessen ist, ein Kind in heißen Kaffee zu tauchen. Unsere Erfahrungen haben uns gezeigt, was gefährlich ist und was nur gemein ist. Unabhängig davon, ob wir in der Vergangenheit etwas getan haben oder darüber informiert wurden, können wir auf die Informationen zurückgreifen, die wir gespeichert haben, um unser Verhalten in einer neuen Situation zu informieren.

Roboter können Probleme nach dem gleichen Prinzip lösen. Aber wir müssen noch einen Computer herstellen, der wie ein Mensch lernen kann - und selbst dann ist das Lernen von Ethik ein Prozess, der Jahre dauert. Robotern müssen lebenslange Informationen zur Verfügung stehen, bevor sie in die Welt entlassen werden.

Der Umfang dieser Arbeit ist atemberaubend und geht weit über das hinaus, was viele erwarten. Der Roboter lernt nicht nur, wie er die Aufgaben erfüllen soll, für die er ausgesandt wird, sondern bietet auch eine zusätzliche Komplexitätsebene, die sich aus den vielen Feinheiten der Mensch-Roboter-Interaktion ergibt.

Andrew Moore ist Dekan der School of Computer Sciences an der Carnegie Mellon University. In dieser Rolle unterstützt er eine Gruppe von 2.000 Studenten und Fakultätsmitgliedern, von denen viele in Bereichen wie Robotik, maschinelles Lernen und KI arbeiten.

"Wir sind dafür verantwortlich, herauszufinden, wie das Jahr 2040 aussehen wird", sagte er mir. "Wir sind also auch dafür verantwortlich, dass 2040 ein sehr gutes Jahr zum Leben ist." Da es wahrscheinlich ist, dass Helferroboter eine Rolle in dieser Zukunftsvision spielen werden, verfügt Moore über viel Erfahrung in der Beziehung zwischen Maschine und Benutzer. Um eine Vorstellung davon zu geben, wie sich diese Bindung in den kommenden Jahren entwickeln wird, verwendet er das bekannte Beispiel des Smartphone-Assistenten.

Heutzutage tragen viele von uns ein Smartphone, mit dem Fragen wie „Wer ist der derzeitige Präsident der Vereinigten Staaten?“ Beantwortet werden können. und komplexere Fragen wie "Wie groß sind die Töchter des Präsidenten der Vereinigten Staaten?" Bald werden wir sehen, dass Aktionen, die auf diesen Fragen basieren, alltäglich werden. Sie können Ihr Telefon beispielsweise bitten, ein neues Windelpaket zu bestellen.

Um die nächste Entwicklungsstufe zu demonstrieren, stellte Moore eine scheinbar harmlose Beispielfrage. "Habe ich Zeit, vor meinem nächsten Treffen einen Kaffee zu trinken?"

Mehr zur KI: Der  Algorithmus für maschinelles Lernen bringt die Worte von George W. Bush in Barack Obamas Mund

"Unter der Haube muss viel Wissen an den Computer gelangen, damit der Computer die Frage beantworten kann", sagte Moore. Während die heutige Technologie die Frage verstehen kann, benötigt das System viele Daten, um sie zu beantworten. Wie ist die Linie im Café? Wie ist der Verkehr? Welche Art von Getränk bestellt der Benutzer normalerweise? Dem Computer Zugriff auf diese Daten zu gewähren, ist mit eigenen Herausforderungen verbunden.

KI-Systeme benötigen Zugriff auf eine Vielzahl von Informationen, von denen einige in Stein gemeißelt sind und sich ständig ändern, um die komplexen Aufgaben zu erfüllen, die wir in wenigen Jahren von ihnen erwarten.

Moore veranschaulicht diesen Punkt, indem er den Tonfall vergleicht, den eine Person annehmen könnte, wenn sie mit dem Chef ihres Chefs oder einem alten Freund spricht. Irgendwo in Ihren Datenbanken gibt es einen Kern von Informationen, der Ihnen sagt, dass Ersteres mit bestimmten sozialen Hinweisen behandelt werden sollte, die im Gespräch mit Letzterem nicht so notwendig sind.

Wenn Sie Google bitten, rote Kleider zu zeigen, und eines der Ergebnisse ein Toaster ist, fällt das Ganze auseinander.

Es ist einfaches Zeug für einen Menschen, aber etwas, das in die KI eingeflößt werden muss. Und je dringlicher die Aufgabe, desto wichtiger wird die Präzision. Es ist eine Sache, einen Assistenten zu fragen, ob Sie Kaffee trinken. Aber was wäre, wenn Sie verletzt wären und wissen müssten, welches Krankenhaus am schnellsten erreichbar ist - und möglicherweise eine Roboterhilfe benötigen, um es zu erreichen? Ein Fehler wird plötzlich lebensbedrohlich.

"Es ist eigentlich ganz einfach, ein maschinelles Lernprogramm zu schreiben, in dem man es mit vielen Beispielen trainiert", sagte Moore. „Wenn Sie diese Arbeit erledigt haben, erhalten Sie ein Modell. Das funktioniert ziemlich gut, und wenn wir ein solches System bauen, sprechen wir über "Genauigkeit" und verwenden Sätze wie "Präzision" und "Rückruf". Das Interessante ist, dass es ziemlich einfach ist, 19 von 20 Dingen richtig zu machen. “

„Für viele Anwendungen ist das gut genug. In vielen anderen Anwendungen - insbesondere wenn es um Sicherheit geht oder wenn Sie sehr komplizierte Fragen stellen - muss Ihr System jedoch eine Genauigkeit von 99,9 Prozent aufweisen. “

Das Vertrauen der Benutzer ist ebenfalls ein Problem. „Wenn Sie Google fragen, ob Sie mir die 15 beliebtesten roten Kleider zeigen möchten, werden die Ergebnisse angezeigt, und nur eines davon ist tatsächlich ein Toaster. Dann fällt das Ganze auseinander. Die Benutzer hören auf, ihm zu vertrauen. “ Ein Benutzer, der das Vertrauen in einen Roboter verliert, wird ihn wahrscheinlich nicht mehr verwenden.

Allgemeinwissen vermitteln

Selbst wenn die spezifischen Aufgaben, für die eine einzelne Implementierung entwickelt wurde, nicht berücksichtigt werden, benötigen Roboter und KIs eine große Menge an Grundkenntnissen, um in freier Wildbahn arbeiten zu können. Alles, von sozialen Hinweisen bis hin zu Sicherheitsbestimmungen, muss in das Gehirn der Maschine eingeprägt werden, um ihren Erfolg sicherzustellen.

Glücklicherweise helfen andere Bereiche bei einigen Elementen dieses rechnerischen Lehrplans. "Mit Dingen wie Navigation und Analyse des menschlichen Gesichtsausdrucks gibt es eine wissenschaftliche Disziplin, die tatsächlich viele reale Daten enthält", sagte Moore. Oft können auch einzelne Forschungsprojekte neu ausgerichtet werden.

"Die Algorithmen, an denen wir arbeiten, sind allgemein", sagte Matthias Scheutz zu mir und bezog sich dabei auf die Forschung, die er und Gordon Briggs an der Tufts University durchgeführt hatten. "Sie können in jeder Domäne angewendet werden, solange der Roboter über die erforderlichen Darstellungen von Aktionen und Normen für diese Domäne verfügt."

Module, die einem Roboter die Fähigkeit geben könnten, menschliche Ausdrücke zu erkennen oder nicht von einem Tisch zu fallen, haben sicherlich ihre Verwendung. Jeder würde jedoch einen sehr kleinen Teil der Grundanforderungen einer Maschine für den unbeaufsichtigten Betrieb erfüllen. Ein verallgemeinertes Betriebssystem könnte ein grundlegendes allgemeines Wissen darstellen, das leicht zwischen verschiedenen Implementierungen ausgetauscht werden kann.

"Einer der Hauptfinanzierer dieser Art von Arbeit ist eine Gruppe, die viele andere Dinge finanziert, die sich als wichtig herausstellten", sagte Moore. „Das ist DARPA. Sie haben eine Reihe großer Projekte im Bereich "Allgemeinwissen für die Robotik". “

Wenn AIs und Helferroboter in nicht allzu ferner Zukunft Realität werden sollen, dürfte eine Version dieser Plattform „Allgemeinwissen für Robotik“ eine entscheidende Komponente sein. Es könnte sogar der Schlüssel zu einer breiten Mainstream-Akzeptanz sein.

Es gibt noch viel zu tun, bevor es eine Wissensdatenbank gibt, die die erste Welle von Verbraucherrobotern unterstützen kann. Das Endprodukt mag Jahre entfernt sein, aber die Grundlagen, die zur Erleichterung seiner Entstehung benötigt werden, sind keine Science-Fiction.