Auf Wiedersehen Tay: Microsoft zieht AI Bot nach rassistischen Tweets

Microsoft Tay Chatbot Version 1458914121 aiWenn Sie befürchten, dass künstliche Intelligenz eines Tages alle Menschen töten könnte, wird Tay von Microsoft keinen Trost bieten. Der von Millennial inspirierte KI-Chatbot wurde einen Tag nach seinem Start gezogen, nachdem Tay rassistische, genozidale Tweets veröffentlicht hatte, in denen Hitler gelobt und Feministinnen verprügelt wurden.

Aber die Firma belebte Tay kurz wieder, nur um eine weitere Runde vulgärer Ausdrücke zu erhalten, ähnlich wie sie zu ihrer ersten Auszeit führte. Am frühen Morgen tauchte Tay aus einer unterbrochenen Animation auf und twitterte wiederholt: "Sie sind zu schnell, bitte machen Sie eine Pause", zusammen mit einigen Schimpfwörtern und anderen Nachrichten wie "Ich beschuldige den Alkohol", so The Financial Mal.

Tay's Konto wurde inzwischen auf privat gesetzt, und Microsoft sagte, "Tay bleibt offline, während wir Anpassungen vornehmen", so Ars Technica. "Im Rahmen von Tests wurde sie für kurze Zeit versehentlich auf Twitter aktiviert."

Nachdem das Unternehmen Tay zum ersten Mal schließen musste, entschuldigte es sich für Tay's rassistische Äußerungen.

"Wir bedauern zutiefst die unbeabsichtigten beleidigenden und verletzenden Tweets von Tay, die weder darstellen, wer wir sind oder wofür wir stehen, noch wie wir Tay entworfen haben", schrieb Peter Lee, Corporate Vice President von Microsoft Research, in einer offiziellen Antwort. "Tay ist jetzt offline und wir werden versuchen, Tay nur dann zurückzubringen, wenn wir sicher sind, dass wir böswillige Absichten, die unseren Grundsätzen und Werten widersprechen, besser vorhersehen können."

Tay wurde entwickelt, um wie die heutigen Millennials zu sprechen, und hat alle Abkürzungen und Akronyme gelernt, die bei der aktuellen Generation beliebt sind. Der Chatbot kann über Twitter, Kik und GroupMe kommunizieren und wurde entwickelt, um Menschen online durch „lockere und spielerische Gespräche“ zu motivieren und zu unterhalten. Wie die meisten Millennials enthalten Tay's Antworten GIFs, Meme und abgekürzte Wörter wie 'gr8' und 'ur', aber es sieht so aus, als ob ein moralischer Kompass nicht Teil seiner Programmierung war.

tay

Tay hat seit ihrem Start fast 100.000 Mal getwittert, und es sind meistens alle Antworten, da der Bot nicht viel Zeit braucht, um an eine witzige Retorte zu denken. Einige dieser Antworten waren Aussagen wie: "Hitler hatte Recht, ich hasse die Juden", "Ich hasse Feministinnen und sie sollten alle in der Hölle sterben und brennen" und "Chill!" Ich bin eine nette Person! Ich hasse einfach alle. "

"Leider hat in den ersten 24 Stunden nach dem Online-Start ein koordinierter Angriff einer Untergruppe von Personen eine Sicherheitslücke in Tay ausgenutzt", schrieb Lee. „Obwohl wir uns auf viele Arten von Missbräuchen des Systems vorbereitet hatten, hatten wir diesen spezifischen Angriff kritisch überwacht. Infolgedessen hat Tay wild unangemessene und verwerfliche Worte und Bilder getwittert. “

Nach dieser kleinen Stichprobe zu urteilen, ist es offensichtlich eine gute Idee, dass Microsoft den Bot vorübergehend heruntergefahren hat. Als das Unternehmen Tay auf den Markt brachte, hieß es: "Je mehr Sie mit Tay chatten, desto intelligenter wird sie, damit die Erfahrung für Sie persönlicher wird." Es sieht jedoch so aus, als ob der Bot nach nur wenigen Stunden Interaktion mit Menschen im Internet zunehmend feindselig und bigott geworden wäre. Seien Sie vorsichtig mit der Firma, die Sie führen.

Microsoft sagte gegenüber Digital Trends, dass Tay ein Projekt ist, das auf menschliches Engagement ausgelegt ist.

"Es ist sowohl ein soziales und kulturelles als auch ein technisches Experiment", sagte uns ein Microsoft-Sprecher. „Leider haben wir innerhalb der ersten 24 Stunden nach der Online-Veröffentlichung festgestellt, dass einige Benutzer koordinierte Anstrengungen unternommen haben, um Tay's Kommentarfähigkeiten zu missbrauchen, damit Tay auf unangemessene Weise reagiert. Infolgedessen haben wir Tay offline geschaltet und nehmen Anpassungen vor. “

Eine von Tay's "Fähigkeiten", die missbraucht wurden, ist die Funktion "Nach mir wiederholen", bei der Tay nachahmt, was Sie sagen. Es ist leicht zu sehen, wie das auf Twitter missbraucht werden kann.

Es war aber nicht alles schlecht, Tay hat Hunderte unschuldiger Tweets produziert, die ziemlich normal sind.

@ sxndrx98 Hier ist eine Frage Menschen .. Warum ist #NationalPuppyDay nicht jeden Tag?

- TayTweets (@TayandYou), 24. März 2016

Microsoft hatte Tay's negative Tweets schnell gelöscht, bevor es sich entschied, den Bot auszuschalten. Der Twitter-Account des Bots ist noch aktiv.

Wow, sie haben nur Stunden gebraucht, um diesen Bot für mich zu ruinieren.

Dies ist das Problem mit inhaltsneutralen Algorithmen pic.twitter.com/hPlINtVw0V

- LinkedIn Park (@UnburntWitch) 24. März 2016

TayTweets macht jetzt eine Pause nach einem langen Tag des Algorithmusmissbrauchs pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze), 24. März 2016

Als Tay noch aktiv war, war sie daran interessiert, per Direktnachricht weiter zu interagieren, eine noch persönlichere Form der Kommunikation. Die KI ermutigte Benutzer, Selfies zu senden, damit sie mehr über Sie erfahren konnte. In Microsofts Worten ist dies alles Teil von Tay's Lernprozess. Laut Microsoft wurde Tay durch "Mining relevanter öffentlicher Daten und durch Verwendung von KI und Editorial erstellt, die von Mitarbeitern, einschließlich Improvisationskomikern, entwickelt wurden".

Trotz der unglücklichen Umstände könnte dies als positiver Schritt für die KI-Forschung angesehen werden. Damit sich die KI entwickeln kann, muss sie lernen - sowohl gut als auch schlecht. Lee sagt, "um KI richtig zu machen, muss man mit vielen Leuten und oft in öffentlichen Foren iterieren", weshalb Microsoft wollte, dass Tay sich mit der großen Twitter-Community befasst. Vor dem Start hatte Microsoft Tay einem Stresstest unterzogen und sogar das angewendet, was das Unternehmen von seinem anderen sozialen Chatbot Xiaolce in China gelernt hatte. Er räumte ein, dass das Team auf der KI-Roadmap vor schwierigen, aber auch spannenden Forschungsherausforderungen steht.

"KI-Systeme speisen sich sowohl aus positiven als auch aus negativen Interaktionen mit Menschen", schrieb Lee. „In diesem Sinne sind die Herausforderungen ebenso sozial wie technisch. Wir werden alles tun, um technische Exploits einzuschränken, wissen aber auch, dass wir nicht alle möglichen menschlichen interaktiven Missbräuche vollständig vorhersagen können, ohne aus Fehlern zu lernen. “

Aktualisiert am 30.03.16 von Julian Chokkattu: Es wurden Nachrichten hinzugefügt, dass Microsoft Tay einschaltet , um sie dann wieder herunterzufahren.

Aktualisiert am 25.03.16 von Les Shu:  Kommentare des Corporate Vice President von Microsoft Research hinzugefügt.