Facebook verwendet Bots, um schlechtes Verhalten vorherzusagen und zu verhindern

Trotz der vielen Bemühungen von Facebook schaffen es schlechte Schauspieler irgendwie immer, ihre Schutzmaßnahmen und Richtlinien zu durchdringen. Das soziale Netzwerk experimentiert jetzt mit einer neuen Methode, um seine Anti-Spam-Wände zu stützen und schlechte Verhaltensweisen zu verhindern, die möglicherweise gegen seine Sicherheitsvorkehrungen verstoßen könnten: Eine Armee von Bots.

Facebook sagt, dass es ein neues System von Bots entwickelt, das schlechtes Verhalten simulieren und seine Plattform einem Stresstest unterziehen kann, um Fehler und Lücken aufzudecken. Diese automatisierten Bots werden geschult und lernen, wie man sich wie eine echte Person verhält, indem man den Schatz an Verhaltensmodellen nutzt, den Facebook von seinen über zwei Milliarden Nutzern erworben hat.

Um sicherzustellen, dass dieses Experiment keine echten Benutzer stört, hat Facebook auch eine Art parallele Version seines sozialen Netzwerks erstellt. Hier werden die Bots losgelassen und dürfen sich austoben - sie können sich gegenseitig Nachrichten senden, Dummy-Posts kommentieren, Freundschaftsanfragen senden, Seiten besuchen und vieles mehr. Noch wichtiger ist, dass diese KI-Bots so programmiert sind, dass sie extreme Szenarien wie den Verkauf von Drogen und Waffen simulieren, um zu testen, wie die Facebook-Algorithmen versuchen würden, sie zu verhindern.

Facebook behauptet, dass dieses neue System "Tausende oder sogar Millionen von Bots" hosten kann. Da es auf demselben Code ausgeführt wird, den Benutzer tatsächlich erleben, fügt es hinzu, dass „die Aktionen der Bots den Effekten treu bleiben, die von echten Menschen, die die Plattform nutzen, beobachtet würden.“

"Während sich das Projekt derzeit in einer reinen Forschungsphase befindet, besteht die Hoffnung, dass es uns eines Tages dabei helfen wird, unsere Services zu verbessern und potenzielle Zuverlässigkeits- oder Integritätsprobleme zu erkennen, bevor sie echte Menschen betreffen, die die Plattform nutzen." schrieb den Projektleiter Mark Harman in einem Blogbeitrag.

Derzeit ist unklar, wie effektiv die neue Simulationsumgebung von Facebook sein wird. Wie Harman erwähnte, befindet es sich noch in einem recht frühen Stadium und das Unternehmen hat noch keine seiner Ergebnisse für öffentlich zugängliche Updates verwendet. In den letzten Jahren hat das soziale Netzwerk aktiv auf künstlicher Intelligenz basierende Forschung investiert und unterstützt, um neue Tools zur Bekämpfung von Belästigung und Spam zu entwickeln. Auf seiner jährlichen Entwicklerkonferenz vor zwei Jahren gab Mark Zuckerberg bekannt, dass das Unternehmen Tools für künstliche Intelligenz entwickelt, um Beiträge zu bearbeiten, die terroristische Inhalte, Hassreden, Spam und mehr enthalten.