Taylor Swift soll Microsoft wegen rassistischen Twitter-Bots verklagt haben

Als aus einem künstlich intelligenten Chatbot, der über Twitter lernte, wie man nicht überraschend spricht, ein Bigot-Bot wurde, drohte Taylor Swift Berichten zufolge mit rechtlichen Schritten, weil der Name des Bots Tay war. Microsoft würde wahrscheinlich lieber das Experiment vergessen, bei dem Twitter-Trolle die Programmierung des Chatbots ausnutzten und es 2016 als rassistisch lehrten. In einem neuen Buch werden jedoch unveröffentlichte Details veröffentlicht, die zeigen, dass Microsoft mehr zu befürchten hatte als nur die rassistischen Äußerungen des Bots.

Tay war ein Social-Media-Chatbot, der sich an Teenager richtete, die zuerst in China gestartet wurden, bevor er den Drei-Buchstaben-Spitznamen beim Umzug in die USA anpasste. Der Bot war jedoch so programmiert, dass er anhand von Twitter-Gesprächen das Sprechen lernen konnte. In weniger als einem Tag hatten die automatischen Antworten, die der Chatbot twitterte, Tay auf die Seite Hitlers gestellt, den Völkermord gefördert und im Allgemeinen alle gehasst. Microsoft hat das Konto sofort entfernt und sich entschuldigt.

Als der Bot neu programmiert wurde, wurde Tay als Zo neu gestartet. Aber in dem Buch Tools and Weapons von Microsoft-Präsident Brad Smith und Carol Ann Browne, Kommunikationsdirektorin von Microsoft, haben die Führungskräfte endlich enthüllt, warum - ein weiterer Tay, Taylor Swift.

Laut The Guardian drohte der Anwalt des Sängers mit rechtlichen Schritten wegen des Namens des Chatbots, bevor der Bot kaputt ging. Der Sänger behauptete, der Name verstoße sowohl gegen Bundes- als auch gegen Landesgesetze. Anstatt in einen Rechtsstreit mit dem Sänger zu geraten, schreibt Smith, begann das Unternehmen stattdessen, über neue Namen nachzudenken.

Als der Chatbot anfing, rassistische Tweets zu verschicken, hatte der Sänger noch mehr Grund zur Sorge. Microsoft hat den Bot entfernt. Aber als der Chatbot wieder auftauchte, war Tay nicht mehr TayTweets, sondern Zo, komplett mit einem neuen Programm, das den Bot daran hindert, Politik, Rasse und Religion als Themen anzusprechen. Der überarbeitete Chatbot, der auf Messenger und anderen zusammen mit Twitter verfügbar ist, wurde später dafür kritisiert, dass er einem stereotypen Teenager-Mädchen zu sehr ähnelt.

Der verkürzte Spitzname ist nicht das einzige, worauf die Sängerin Anspruch erhoben hat - sie hat auch 1989, das Jahr ihrer Geburt und den Titel eines ihrer Songs als Markenzeichen eingetragen. Die Sängerin hat auch mehrere Zeilen aus ihren Texten registriert.

In dem am 10. September veröffentlichten Buch wird weiterhin diskutiert, wie Smith den Vorfall als Lehre für KI-Schutzmaßnahmen ansah.