Behörden in Florida ermitteln gegen den ChatGPT-Entwickler OpenAI im Zusammenhang mit dem Schusswaffen-Angriff an einer Hochschule. Nach ersten Erkenntnissen habe sich der Schütze vor der Tat erheblich von dem KI-Chatbot beraten lassen, sagte Floridas Generalstaatsanwalt James Uthmeier bei einer Pressekonferenz. Dazu habe gehört, welche Waffe er verwenden solle, welche Munition zu welchen Waffen passe, sowie wo und zu welcher Zeit die meisten Menschen anzutreffen sein würden.
Von OpenAI gab es zunächst keine Reaktion auf die Vorwürfe. Bei dem Angriff auf dem Gelände der Florida State University im April 2025 hatte der Schütze zwei Menschen getötet. Sechs weitere Personen wurden verletzt.
Behörde will mehr Informationen
Beteiligten Staatsanwälten zufolge hätte man bereits eine Mordanklage verfasst, wenn die Ratschläge von einem anderen Menschen gekommen wären, sagte Uthmeier. «Natürlich ist ChatGPT keine Person», räumte er ein. Man müsse trotzdem der Frage nachgehen, ob ein Unternehmen in diesem Fall haftbar gemacht werden könne. Uthmeiers Behörde forderte bei OpenAI Informationen unter anderem zu Vorkehrungen für den Fall von Bedrohungs-Situationen ein.
Chatbots wie ChatGPT sind eigentlich so programmiert, dass sie keine Fragen beantworten, wenn sie dahinter die Absicht eines Nutzers erkennen, sich oder anderen Schaden zuzufügen. In einigen Situationen sollen sie auch Zuständige im Unternehmen alarmieren, die wiederum Sicherheitsbehörden einschalten können. Zugleich war es manchmal möglich, die Vorkehrungen auszuhebeln.
© dpa-infocom, dpa:260421-930-976016/1
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: newsfeed.zeit.de





