Wie KI Hinweise sammeln kann, um zukünftige Schießereien in der Schule zu verhindern

Angesichts der jüngsten tödlichen Schießereien in den USA suchen Pädagogen, Eltern und Sicherheitsexperten nach Technologien, um das Problem zu lösen. Im Vordergrund steht der Einsatz künstlicher Intelligenz.

"Unser Ziel ist es, sicherzustellen, dass ein Kind niemals eine Waffe zur Schule bringen möchte", sagte Suzy Loughlin, Mitbegründerin und Chief Council von Firestorm, einer Krisenmanagementfirma. Zu diesem Zweck hat das Unternehmen in Zusammenarbeit mit der Weiterbildungsschule der Universität von Alabama ein Präventionsprogramm entwickelt, das nach Frühwarnzeichen bei Kindern sucht, bei denen das Risiko besteht, künftige Gewalttaten zu begehen.

Die Idee mit dem Namen BERTHA für das Behavioral Risk Threat Assessment Program entstand aus den Massenerschießungen 2007 an der Virginia Tech, als 32 Menschen ermordet wurden - eine der tödlichsten in der Geschichte der USA. Die Schießerei im Februar an der Marjory Stoneman Douglas High School in Parkland, Florida, bei der 17 Menschen ums Leben kamen, brachte mehr Aufmerksamkeit auf das Problem, das im Mai durch die Schießerei an der Santa Fe High School in Texas erneut unterstrichen wurde, bei der 10 Schüler und Lehrer getötet wurden.

Opfer von Schießereien in der Schule seit 1989 , Quelle: Mutter Jones

VorfallTodesfälleVerletztGesamtzahl der OpferJahr
Schießen an der Santa Fe High School (Santa Fe, TX)1013232018
Schießen auf Marjory Stoneman Douglas High School (Parkland, Florida)1714312018
Umpqua Community College Schießen (Roseburg, Oregon)99182015
Schießen an der Marysville-Pilchuck High School (Marysville, Washington)5162014
Massenmord an Isla Vista (Santa Barbara, Kalifornien)613192014
Sandy Hook Elementarmassaker (Newtown, Connecticut)272292012
Morde an der Oikos-Universität (Oakland, Kalifornien)73102012
Schießen an der Northern Illinois University (DeKalb, Illinois)521262008
Massaker an der Virginia Tech (Blacksburg, Virginia)3223552007
Schießen in der Amish-Schule (Lancaster County, Pennsylvania)65112006
Massaker am Roten See (Red Lake, Minnesota)105fünfzehn2005
Massaker an der Columbine High School (Littleton, Colorado)1324371999
Schießen an der Thurston High School (Springfield, Oregon)425291998
Morde an der Westside Middle School (Jonesboro, Arkansas)510fünfzehn1998
Schießen an der Lindhurst High School (Olivehurst, Kalifornien)410141992
Schießen an der Universität von Iowa (Iowa City, Iowa)6171991
Stockton Schulhofschießen (Stockton, Kalifornien)629351989

Das Risikobewertungsprogramm ist als Sicherheitsnetz konzipiert, um Kinder zu fangen, die möglicherweise Hilfe und Intervention benötigen, bevor sie selbstmordgefährdet oder gewalttätig werden. Wie nach jedem vorherigen Vorfall gezeigt wurde, fragen sich Administratoren, Eltern und Schüler, warum Frühwarnzeichen - wie Cybermobbing, Anspielungen auf Waffen und Hinweise auf die Schießerei der Columbine High School in Colorado im Jahr 1999 - nicht früher bemerkt wurden.

Verwenden von KI, um nach Hinweisen zu suchen

Die Herausforderung bestand darin, die Berge von Daten, die in Foren und Social-Media-Konten generiert wurden, zu durchsuchen, um die wenigen Nadeln zu finden, die einen Schulberater oder Psychologen darauf aufmerksam machen könnten, dass ein Kind in Schwierigkeiten ist. Um solche Hinweise online herauszufiltern, setzen Administratoren Tools für künstliche Intelligenz ein.

"Unser Ziel ist es sicherzustellen, dass ein Kind niemals eine Waffe zur Schule bringen möchte."

"Wir sind die KI-Komponente", erklärte Mina Lux, Gründerin und CEO von Meelo Logic in New York. Ihr Unternehmen arbeitet mit Firestorm am BERTHA-Programm, um das anfängliche schwere Heben des Sortierens durch sogenannte Big Data durchzuführen. "Unser Fokus liegt auf der Wissensautomatisierung, um den Kontext zu verstehen."

Die Software von Meelo kann Kommentare und Postings bis zur ursprünglichen Quelle zurückverfolgen. Das Unternehmen bezeichnet den Prozess als kausales Denken, aber es ist analoger, Patienten Null zu finden, die ursprüngliche Person, über die möglicherweise jemand anderes Bedenken geäußert hat.

"Normalerweise gibt es online einen ersten Ausbruch, und sie machen diesen absichtlich öffentlich - es könnte ein Hilferuf sein", erklärte Hart Brown, COO von Firestorm. "Und in 80 Prozent der Fälle weiß mindestens eine andere Person Bescheid. Selbst wenn der erste Beitrag privat ist, wird er wahrscheinlich von einer anderen Person veröffentlicht."

Wie kann ich Hinweise sammeln, um zukünftige Schießereien in der Schule zu verhindern?Wie kann ich Hinweise sammeln, um zukünftige Schießereien in der Schule zu verhindern?Wie kann ich Hinweise sammeln, um zukünftige Schießereien in der Schule zu verhindern?Wie kann ich Hinweise sammeln, um zukünftige Schießereien in der Schule zu verhindern?

Das AI-Programm bietet das erste Screening basierend auf den verwendeten Slang-Begriffen, dem Kontext, dem Ort und den zugehörigen Links. Anschließend kennzeichnet das BERTHA-Dashboard von Firestorm die Aktivität für mögliche Eingriffe. Hier greifen Menschen - Berater, Lehrer, Psychologen - ein, um zu beurteilen, ob eine echte Bedrohung besteht, ob ein Kind zusätzliche Aufmerksamkeit benötigt, weil es Wut oder Selbstmordtendenzen zeigt oder ob die Aktivität harmlos ist.

Die Herausforderung bestand in der Schwierigkeit, die Berge von Daten zu durchsuchen, die in Foren und sozialen Medien generiert wurden.

"Aber niemand ist für die Entscheidung verantwortlich", sagte Brenda Truelove, Programmadministratorin an der Universität von Alabama, die mit Firestorm an dem Programm und einem damit verbundenen E-Learning-Programm für Pädagogen im ganzen Land gearbeitet hat. "Eine Person könnte etwas vermissen, also ist es ein Team von Menschen, die entscheiden, was zu tun ist."

Truelove stellte fest, dass das Programm auf Erfahrungen von Lehrern, forensischen Psychologen und anderen Experten basiert, um eine Formel für den Umgang mit potenziellen Krisen zu erstellen.

Bedeutet erhöhte Sicherheit weniger Privatsphäre?

Während das Potenzial der KI zur Verhinderung künftiger Schießereien in der Schule vielversprechend sein kann, werfen eine solche Verfolgung und Datenanalyse unvermeidliche Bedenken hinsichtlich der Privatsphäre und Genauigkeit auf und darüber, ob die Sicherheit Bedenken außer Kraft setzt.

Bryce Albert, ein Schüler der neunten Klasse der Marjory Stoneman Douglas High School, befand sich im Flur im dritten Stock, als der Schütze anfing, auf Schüler zu schießen. Als Albert den Mörder den Flur entlang kommen sah, ließ ein Lehrer Albert in ein Klassenzimmer und er überlebte. Seit dieser Erfahrung hat er seine Gedanken über die Privatsphäre geändert.

Feuersturm

"Früher dachte ich, ich gehe nicht auf meine Sachen ein", sagte Albert gegenüber Digital Trends über Behörden, die seine Nutzung sozialer Medien verfolgen. "Aber jetzt habe ich meine Meinung total geändert."

Meelos Lux betonte, dass die KI-Programme nicht auf private Konten zugreifen; Alle Informationen sind öffentlich. Loughlin von Firestorm unterstrich die Tatsache, dass sie die Daten nicht selbst sammeln oder speichern. Es wird von den einzelnen Schulen gepflegt, die bereits Erfahrung darin haben, Aufzeichnungen über Schüler zu führen. (Firestorm erhebt eine Lizenzgebühr von 2.500 USD pro Schule, während die Universität von Alabama einen kostenlosen Online-Schulungskurs für K-12-Pädagogen in Alabama anbietet. Schulen können auch kostenlos an ihren eigenen Frühwarnprojekten arbeiten, indem sie die neunstufige Grundformel von Firestorm für verwenden Einrichtung solcher Programme.)

Lux räumt ein, dass Feinheiten der Sprache wie Sarkasmus für jede KI-Forschung eine Herausforderung darstellen können. Meelo konzentriert sich eher auf die Textanalyse als auf die Art der Bildanalyse, die andere KI-Unternehmen wie Cortica studieren. Trotzdem gibt es auch für menschliche Teilnehmer Raum für Fehlinterpretationen.

"Es ist schwer, durch SMS Emotionen zu bekommen", gab Albert zu.

Auf der anderen Seite spielt ein leidenschaftsloses Programm keine Favoriten oder ignoriert die Arten von emotionalen oder Verhaltensänderungen, die darauf hindeuten könnten, dass Probleme bevorstehen.

KI ist immer noch nur ein erster Filter oder ein Werkzeug, um zukünftige Schießereien in der Schule zu stoppen.

"Letztendlich kann es genauer sein, indem so viele Verzerrungen wie möglich beseitigt werden", sagte Brown von Firestorm. Eine HR-Person oder ein Berater kann die emotionalen Ausbrüche einer Person minimieren, indem sie beispielsweise sagt, dass dies ständig passiert. Der nicht blinkende Computer macht keine solchen Ausreden.

"Aber es erfordert immer noch eine menschliche Berührung, um diese Person zu interviewen", sagte Brown. "Der Computer wird nicht feststellen, ob diese Person ausgewiesen werden muss oder eine Beratung benötigt."

KI ist ein Werkzeug, keine Lösung

Alle Experten, mit denen Digital Trends für diese Geschichte gesprochen hat, betonten die Tatsache, dass KI immer noch nur ein erster Filter oder Werkzeug ist, um zukünftige Schießereien in der Schule zu stoppen. Es kann Warnungen über gefährdete Kinder generieren, aber es kann den Pädagogen nicht sagen, wie, wann oder sogar ob sie eingreifen sollten. Die Schulen brauchen immer noch ein eigenes Expertenteam - von Lehrern, die die Schüler kennen, bis zu Psychologen - und werden sie wahrscheinlich auch weiterhin brauchen.

"Statistiken zeigen, dass mit jedem Schießen in der Schule eine höhere Wahrscheinlichkeit besteht, dass ein weiteres Schießen in der Schule stattfindet", sagte Lux.

Letztendlich ist das menschliche Element der wichtigste Faktor. "Sprechen Sie mit Menschen und bitten Sie um Hilfe", sagte Albert. "Hab keine Angst um Hilfe zu bitten."