KI-Sicherheitspraktiken stehen nach dem OpenAI-Schulschießerei-Fall unter Beobachtung, bei dem die Online-Aktivität eines kanadischen Verdächtigen Monate vor dem Angriff gekennzeichnet wurde.
ChatGPT-Hersteller OpenAI enthüllte, dass es das Konto von Jesse Van Rootselaar im Juni 2025 durch seine Missbrauchserkennungssysteme wegen „Förderung gewalttätiger Aktivitäten" identifiziert hatte. Das in San Francisco ansässige Technologieunternehmen kam jedoch zu dem Zeitpunkt zu dem Schluss, dass die Aktivität seine interne Schwelle für eine Weiterleitung an die Strafverfolgungsbehörden nicht erreichte.
Das Unternehmen sagte, es habe speziell abgewogen, ob es die Royal Canadian Mounted Police (RCMP) über das Konto informieren sollte. Außerdem entschied es sich dagegen, da die Signale keinen unmittelbar bevorstehenden und glaubwürdigen Plan zur Verursachung schwerer körperlicher Schäden anzeigten.
OpenAI sperrte das Konto anschließend im Juni 2025 wegen Verstoßes gegen seine Nutzungsrichtlinien. Diese Entscheidung erfolgte Monate vor der Tragödie, die sich später in einem abgelegenen Teil von British Columbia ereignen sollte.
Der 18-jährige Verdächtige führte später einen Schulangriff in der Kleinstadt Tumbler Ridge durch und tötete acht Menschen, bevor er durch eine selbst zugefügte Schusswunde starb. Der letzte Woche gemeldete Vorfall ist eine der schlimmsten Schulschießereien in der Geschichte Kanadas und hat die Debatte darüber verschärft, wie Technologieunternehmen mit riskantem Nutzerverhalten umgehen.
Laut der RCMP tötete Van Rootselaar zunächst ihre Mutter und ihren Stiefbruder im Familienhaus, bevor sie die nahegelegene Schule ins Visier nahm. Darüber hinaus sagte die Polizei, dass der Schütze eine Vorgeschichte von psychischen Gesundheitskontakten mit den Strafverfolgungsbehörden hatte, obwohl die genaue Art dieser Interaktionen nicht näher erläutert wurde.
Die Polizei berichtete, dass zu den Opfern eine 39-jährige Lehrassistentin und fünf Schüler im Alter von 12 bis 13 Jahren gehörten. Die Stadt mit etwa 2.700 Einwohnern in den Canadian Rockies liegt mehr als 1.000 km (600 Meilen) nordöstlich von Vancouver, nahe der Grenze zu Alberta.
Bei der Erklärung seiner Entscheidung, die Behörden nicht früher zu kontaktieren, sagte OpenAI, dass sein Standard für die Kontaktaufnahme mit Strafverfolgungsbehörden darauf beruht, ob ein Fall ein unmittelbar bevorstehendes und glaubwürdiges Risiko schwerer körperlicher Schäden für andere beinhaltet. Zu diesem Zeitpunkt, so das Unternehmen, habe es keine konkrete oder unmittelbar bevorstehende Planung identifiziert, die eine solche Weiterleitung ausgelöst hätte.
Das Unternehmen merkte an, dass diese Weiterleitungsschwelle darauf abzielt, die Privatsphäre der Nutzer mit Sicherheitsverpflichtungen in Einklang zu bringen. Die Enthüllung hat jedoch neue Fragen darüber aufgeworfen, ob die bestehenden Eskalationskriterien angemessen sind, wenn Frühwarnzeichen bei Nutzerinteraktionen mit KI-Tools wie ChatGPT auftreten.
Nachdem die Nachricht von der Schulschießerei bekannt wurde, kontaktierten Mitarbeiter von OpenAI die RCMP mit Details über Van Rootselaar und die mit dem Konto verbundene historische Aktivität. Das Wall Street Journal berichtete als erstes über die internen Überlegungen und die anschließende Kontaktaufnahme des Unternehmens.
In einer öffentlichen Erklärung sagte ein OpenAI-Sprecher: „Unsere Gedanken sind bei allen, die von der Tumbler Ridge-Tragödie betroffen sind. Wir haben proaktiv die Royal Canadian Mounted Police mit Informationen über die Person und ihre Nutzung von ChatGPT kontaktiert und werden ihre Untersuchung weiterhin unterstützen." Darüber hinaus betonte das Unternehmen seine fortlaufende Zusammenarbeit mit den kanadischen Behörden.
Das Motiv für die Schießerei bleibt jedoch unklar, und die Ermittler haben noch nicht offengelegt, welche direkte Verbindung, falls vorhanden, zwischen den Interaktionen des Verdächtigen mit ChatGPT und dem eventuellen Angriff besteht. Der Fall hat dennoch den globalen Fokus darauf geschärft, wie KI-Plattformen potenzielle Bedrohungen erkennen, bewerten und darauf reagieren.
Die Behörden bezeichneten den Tumbler Ridge-Angriff als Kanadas tödlichsten Amoklauf dieser Art seit 2020, als ein Schütze in Nova Scotia 13 Menschen tötete und Brände legte, die den Tod weiterer neun Menschen verursachten. Das jüngste Ereignis hat jedoch eine zusätzliche Dimension, da es sich mit den sich entwickelnden Verantwortlichkeiten von KI-Anbietern überschneidet.
Während politische Entscheidungsträger und Strafverfolgungsbehörden die Umstände überprüfen, dürfte die OpenAI-Schulschießerei-Episode voraussichtlich die Debatte darüber anheizen, wann und wie KI-Unternehmen besorgniserregendes Nutzerverhalten an die Behörden eskalieren sollten und ob bestehende Weiterleitungsstandards aufkommende digitale Risiken ausreichend adressieren.
Zusammenfassend unterstreicht die Tragödie in British Columbia das komplexe Gleichgewicht zwischen Datenschutz, Risikobewertung und öffentlicher Sicherheit, da KI-Plattformen tief in den Alltag eingebettet werden und sowohl Regulierungsbehörden als auch Technologieunternehmen dazu zwingen, ihre Protokolle für den Umgang mit potenziellen Bedrohungen zu überdenken.


