Gefälschte Nachrichten und Filterblasen - es ist unsere Aufgabe, sie zu stoppen

gefälschte Nachrichten und Filterblasen fakenews Filterblasen 05Eli Pariser, Mitbegründer von Avaaz Kris Krüg / Flickr Es ist ein halbes Jahrzehnt her, seit der Mitbegründer von Avaaz, Eli Pariser, zuerst den Ausdruck „Filterblase“ geprägt hat, aber sein prophetisches TED-Gespräch - und seine Bedenken und Warnungen - sind es jetzt noch zutreffender als damals. In einer Zeit gefälschter Nachrichten, kuratierter Inhalte, personalisierter Erfahrungen und tiefgreifender ideologischer Spaltungen ist es an der Zeit, dass wir alle die Verantwortung dafür übernehmen, dass unsere eigenen Filterblasen platzen.

Wenn ich bei Google nach etwas suche, unterscheiden sich die angezeigten Ergebnisse erheblich von Ihren, basierend auf unseren individuellen Suchverläufen und allen anderen Daten, die Google im Laufe der Jahre gesammelt hat. Wir sehen dies ständig auf unseren Facebook-Zeitplänen, da das soziale Netzwerk seine Datenfässer verwendet, um uns das anzubieten, was es zu sehen und zu hören glaubt. Das ist deine Blase.

Zahlreiche Unternehmen streben seit Jahren nach Blasen. Der Gründer und CEO von Facebook, Mark Zuckerberg, soll Kollegen einmal gesagt haben, dass "ein Eichhörnchen, das in Ihrem Vorgarten stirbt, für Ihre Interessen im Moment relevanter sein könnte als Menschen, die in Afrika sterben". Facebook ist darauf ausgerichtet, sicherzustellen, dass Sie alles über dieses Eichhörnchen wissen.

Obwohl umstritten, ist es fraglich, ob Zuckerberg zumindest teilweise Recht hat. Menschen könnten in ihrem täglichen Leben nicht funktionieren, wenn sie sich jede Sekunde um die Probleme der Welt sorgen würden. Aber unsere Nachrichten zu kuratieren, um uns das zu geben, was wir sehen wollen, anstatt das, was wir vielleicht sehen müssen, hat echte, langfristige Probleme.

Die Gefahren von Filterblasen

Filterblasen scheinen für einen potenziellen Kunden nicht allzu bedrohlich zu sein, können jedoch zu zwei unterschiedlichen, aber miteinander verbundenen Problemen führen. Das erste ist, dass wenn Sie nur Dinge sehen, mit denen Sie einverstanden sind, dies zu einer Bestätigungsverzerrung führen kann, die sich im Laufe der Zeit stetig aufbaut.

Sie nehmen nicht offen Stellung, sie malen die digitale Landschaft unsichtbar mit Dingen, die wahrscheinlich mit Ihrer Sichtweise übereinstimmen.

Ein größeres Problem besteht darin, dass bei solch unterschiedlichen Informationsquellen zwischen Menschen eine echte Trennung entstehen kann, da sie nicht mehr verstehen können, wie jemand anders denken kann als sie selbst.

Ein Blick auf einen der links- oder rechtsgerichteten Mainstream-Fernsehsender während der Vorbereitung auf die jüngsten Wahlen hätte Sie keinen Zweifel daran gelassen, welchen Kandidaten sie unterstützt haben. Gleiches gilt für Zeitungen und andere Medien. Tatsächlich gilt dies für viele veröffentlichte Vermerke.

Aber wir sind uns alle dieser Tendenz bewusst. Es ist einfach, einfach auszuschalten oder zu einer anderen Station umzuschalten, um die andere Seite der Medaille zu sehen.

Online ist die Tendenz verdeckter. Google-Suchanfragen, Feeds in sozialen Netzwerken und sogar einige Nachrichtenpublikationen kuratieren, was sie Ihnen zeigen. Schlimmer noch, es ist alles hinter den Kulissen. Sie nehmen nicht offen Stellung, sie malen die digitale Landschaft unsichtbar mit Dingen, die wahrscheinlich mit Ihrer Sichtweise übereinstimmen.

Wenn der Facebook-Feed einer Person voller Pro-Hillary- und Anti-Trump-Geschichten und -Postings ist, fragen Sie sich vielleicht, wie um alles in der Welt jemand für den Mann stimmen könnte. Wenn Ihr Feed genau das Gegenteil ist und nur die Negative von Hillary hervorhebt und sich für Trump und seine Vorteile einsetzt, haben Sie möglicherweise genau das Gegenteil.

Könnten wir wie Wittgensteins Löwe jemals hoffen, die Position des anderen zu verstehen, wenn unsere Bezugsrahmen aus Nachrichten und sozialen Feeds so unterschiedlich sind?

Gefälschte Nachrichten, ein historisches Problem, bestehen bis heute fort

Dies wird noch problematischer, wenn Sie falsche Nachrichten berücksichtigen. Diese letzte Wahl war eine der umstrittensten in der Geschichte, mit Kandidaten mit geringer Zustimmung auf beiden Seiten und heftigen Schlagzeilen, die von jeder erdenklichen Quelle ausgehen. Bei so viel Schlamm war es schwierig, den Überblick zu behalten, was vor sich ging, und das war doppelt so online, wo es viele gefälschte Nachrichten gab.

Dies ist etwas, was Facebook-Chef Mark Zuckerberg versucht hat, herunterzuspielen, und behauptet, dass es nur 1 Prozent der gesamten Facebook-Nachrichten ausmachte. Wenn man bedenkt, dass Facebook fast 2 Milliarden Nutzer hat, sind das möglicherweise viele falsche Geschichten, die als die Wahrheit angesehen werden. Es hat sich als ausreichend erwiesen, dass Studien darauf hinweisen, dass viele Menschen Schwierigkeiten haben, falsche Nachrichten von echten Nachrichten zu unterscheiden, und in den Wochen seit der Wahl haben sowohl Google als auch Facebook zugesagt, sich mit dem Problem zu befassen.

Bedenken Sie auch, dass 61 Prozent der Millennials Facebook als Hauptnachrichtenquelle verwenden, und Sie können sehen, wie sich dieses Problem verschlimmern könnte, wenn es nicht bald gestoppt wird. Aber dies ist nicht das erste Mal, dass die Jugend von den richtigen Lügen ausgetrickst wird.

gefälschte Nachrichten und Filterblasen Platogefälschte Nachrichten und Filterblasen fakenews Filterblasen 08gefälschte Nachrichten und Filterblasen fakenews Filterblasen 07gefälschte Nachrichten und Filterblasen fakenews Filterblasen 09

Gefälschte Nachrichten, falsches Wissen und falsche Weisheit sind etwas, mit dem Menschen auf Dauer Schwierigkeiten hatten. Sophistik war einst eine Praxis, Rhetorik und öffentliches Sprechen im antiken Griechenland zu unterrichten, wird aber vermutlich von Scharlatanen kooptiert, die die Kraft von Rhetorik und Philosophie nutzten, um nicht nur Geld mit ihren zahlenden Schülern zu verdienen, sondern um lächerliche Argumente bekannt zu machen.

Platon beschrieb eine solche Person in einem seiner späteren Dialoge und versuchte, einen Vergleich zwischen ihnen und ihrer impliziten Weisheit mit einem wahren Philosophen oder Staatsmann zu ziehen. Darin kommt er zu dem Schluss, dass Sophistik die nahezu ununterscheidbare Nachahmung einer wahren Kunst ist, so wie gefälschte Nachrichten heute die Kunstform journalistischer Untersuchung und Berichterstattung imitieren.

Der zweite Präsident der Vereinigten Staaten, John Adams, kannte auch seine Gefahren. Als Antwort auf einen Brief eines Freundes aus dem Jahr 1819, in dem er nach der Definition bestimmter Wörter wie „Freiheit und„ Republik “fragte, lobte er die Suche nach einer solchen Klarheit und betonte, wie wichtig es ist, sich der Bedeutung von Wörtern und Phrasen bewusst zu sein.

"Der Missbrauch von Wörtern war das große Instrument der Sophistik und Schikanen, der Partei, der Fraktion und der Teilung der Gesellschaft."

"Der Missbrauch von Wörtern war das große Instrument der Sophistik und Schikane, der Partei, der Fraktion und der Teilung der Gesellschaft", sagte er, bevor er seine eigene Müdigkeit bei dem Streben nach einer solchen Klärung zitierte.

Ähnlich wie Sophisten und Betrüger der Vergangenheit die Techniken ihrer Kollegen nutzen konnten, um Geld zu verdienen, ihre eigene Statur zu erhöhen und in gewisser Weise die funktionierende Gesellschaft zu untergraben, verwenden gefälschte Nachrichtenseiten und Autoren die Stile und Techniken des Online-Journalismus Inhalte zu erstellen, die plausibel erscheinen. In Kombination mit einer auffälligen Überschrift und der Möglichkeit, diese Inhalte einfach online zu teilen, bevor ihre Echtheit überprüft wird, haben Sie ein Rezept für die Verbreitung falscher Geschichten, die einen echten kulturellen Einfluss haben können.

Während Zuckerberg vielleicht nicht glaubt, dass gefälschte Nachrichten und Memes einen Unterschied bei der Wahl gemacht haben, haben es Facebook-Mitarbeiter und Oculus VR-Gründer Palmer Luckey sicherlich getan. Anfang dieses Jahres wurde er wegen der Investition von mehr als 100.000 US-Dollar in ein Unternehmen, das durch die Verbreitung von Memes und Werbung für entzündliche Angriffe zur Online-Werbung für Donald Trump beitrug, entlassen. Er hätte sich nicht angestrengt, wenn er es für wertlos gehalten hätte.

Geschichten treiben Emotionen an

Buzzfeeds Analyse der beliebten geteilten Geschichten auf Facebook zeigt, dass gefälschte Nachrichten zwar im Vergleich zu ihren echten Gegenstücken Anfang 2016 unterdurchschnittlich abschnitten, aber zum Zeitpunkt des Wahltags Anfang November einen Vorsprung von 1,5 Millionen gegenüber wahren Geschichten hatten.

In derselben Analyse wurden einige der größten gefälschten Wahlgeschichten hervorgehoben, und alle enthielten klassische Taktiken zum Klicken. Sie verwendeten skandalöse Formulierungen, Großschreibung und sensationelle Behauptungen, um die Clicker, Sharer und Kommentatoren anzuziehen.

Das liegt daran, dass diese Art von Worten dazu beiträgt, eine emotionale Reaktion von uns zu ziehen. Die Marketingfirma Co-Schedule hat dies bereits 2014 entdeckt, aber es ist wahrscheinlich etwas, dem viele Menschen auch ohne die harten Zahlen zustimmen würden. Wir waren alle schon einmal von Clickbait-Schlagzeilen versucht, und diese appellieren normalerweise an Angst, Wut, Erregung oder einen anderen Teil von uns, der nicht mit kritischem Denken und politischer Analyse zusammenhängt. Jeder schleudert Schlamm aus seinen eigenen Filterblasen, sicher in dem Wissen, dass er Recht hat und dass jeder, der anders denkt, ein Idiot ist.

Platzen, was Sie nicht sehen können

Und darin liegt die Schwierigkeit. Der einzige Weg, um wirklich zu verstehen, warum jemand einen anderen Standpunkt vertritt, ist Empathie. Aber wie können Sie sich einfühlen, wenn Sie nicht die Kontrolle darüber haben, wie die Welt für Sie erscheint, und Ihr Filter als Puffer für Geschichten dient, die Ihnen helfen könnten, sich mit der anderen Seite zu verbinden?

Pariser greift uns aus der Vergangenheit an und hat einige Gedanken für diejenigen von uns, die jetzt seine Warnung vor der Zukunft durchleben. Selbst wenn Facebook die gesamte Menschheit von seiner Nachrichtenkuration befreit, stecken hinter den Algorithmen, die uns Inhalte füttern, immer noch menschliche Gedanken und Fingerspitzen. Er forderte diese Programmierer auf, der KI hinter den Kulissen ein Gefühl journalistischer Integrität zu vermitteln.

facebookComp_head

„Wir brauchen die Gatekeeper [von Informationen], um [journalistische] Verantwortung in den Code zu kodieren, den sie schreiben. […] Wir müssen sicherstellen, dass diese Algorithmen in ihnen einen Sinn für das öffentliche Leben, einen Sinn für bürgerliche Verantwortung kodiert haben. Sie müssen transparent genug sein, damit wir sehen können, wie die Regeln lauten, und […] wir müssen eine gewisse Kontrolle erhalten. “

Diese Art von Vorschlägen scheint besonders relevant zu sein, da Facebook erst Ende August sein gesamtes Redaktionsteam entlassen hat und sich stattdessen auf automatisierte Algorithmen zur Kuratierung von Inhalten stützt. Sie haben jedoch keine großartige Arbeit geleistet, da Wochen später festgestellt wurde, dass sie während des Screening-Prozesses eine Vielzahl von Faux-Inhalten zugelassen haben.

Während es für Megakonzerne wie eine große Herausforderung erscheint, auf eine so offene Plattform zu drängen, wurde nach den Wahlen so viel Gestank über gefälschte Nachrichten laut, dass es den Anschein hat, als würden Facebook und Google zumindest etwas unternehmen zielen auf diesen problematischen Aspekt der sozialen Netzwerke ab. Sie können jedoch mehr, und es könnte damit beginnen, das Bewusstsein für die Unterschiede in den gezeigten Inhalten zu schärfen.

Sicherlich gibt es Zeiten, in denen wir keine Inhalte benötigen. Wenn Sie nach einem Thema suchen, über das Sie schreiben möchten, möchten Sie die Rohdaten und nicht die verschönerte Version von Google. Wenn es um Nachrichten geht, würde es nicht schaden, eine manuelle Kontrolle über die Kuration anzubieten. entweder.

Wie wäre es mit einer Schaltfläche, mit der wir das genaue Gegenteil von dem sehen können, was unsere datengesteuerten, personalisierten Feeds zeigen? Ich würde das auf jeden Fall ab und zu anklicken.

Dies stellt jedoch andere Personen vor die Pflicht, Änderungen für uns vorzunehmen, und es ist wichtig, sich daran zu erinnern, dass der Grund, warum diese Dienste uns relativ enge Inhalte liefern, in unseren eigenen Suchanfragen und Klicks liegt. Wenn wir alle darauf abzielen, außerhalb unserer Komfortzone zu lesen, mit klarem Verstand einzusteigen und Inhalte außerhalb unserer eigenen Blase zu fordern, würden wir sie erhalten und die Algorithmen würden allmählich reagieren.

Das hat den doppelten Vorteil, dass wir sofort auf neue Informationen zugreifen können, lehrt aber auch unsere digitalen Kuratoren, selbst etwas aufgeschlossener zu sein.

Und vielleicht auch wir. Zumindest genug, um zuzuhören, ohne zu schreien und einen sicheren Raum für unsere eigenen Gedanken zu fordern. Ob Sie glauben, dass der gegnerische Standpunkt falsch, falsch oder widerlich ist, der beste Weg, ihn zu bekämpfen, ist eine vernünftige Debatte. Keine schreckliche Idee kann das harte Tageslicht und die intelligente Opposition überleben.

Für seine Seite der Dinge hebt Pariser weiterhin die Probleme hervor, die Filterblasen darstellen, hat es sich jedoch zur Aufgabe gemacht, Menschen zusammenzubringen, um gefälschte Nachrichten und anderen Online-Unsinn zu bekämpfen. Wenn Sie ihm helfen möchten, können Sie selbst einen Beitrag leisten.

Es scheint jedoch immer klarer zu werden, dass so viele große Institutionen Änderungen vornehmen müssen, um online nach der Wahrheit zu streben, der beste Schritt, den wir alle unternehmen können, darin besteht, unsere eigenen Blasen zu platzen, um zu sehen, was dahinter steckt. In einer Zeit, in der es immer schwieriger wird, den Überblick zu behalten, was was ist, könnte dies die Sache etwas klarer machen.