Sicherheitsforscher entdecken schwerwiegende Schwachstellen im KI-Chatbot von DeepSeek

Bearbeitet von: Veronika Nazarova

Sicherheitsforscher haben kritische Sicherheitslücken im neuen KI-Chatbot von DeepSeek aufgedeckt, der auf dem R1-Reasoning-Modell basiert. In Tests konnte der Chatbot keine der 50 getesteten schädlichen Eingaben blockieren, was zu einer 100-prozentigen Erfolgsrate für Angriffe führte. Diese Ergebnisse verdeutlichen erhebliche Sicherheitsmängel im Vergleich zu etablierten Anbietern wie OpenAI.

Eine Untersuchung von Cisco und der University of Pennsylvania ergab, dass die Sicherheitsmaßnahmen von DeepSeek deutlich hinter denen anderer generativer KI-Entwickler zurückbleiben. DJ Sampath, VP of Product bei Cisco, kommentierte: „Ja, es mag günstiger gewesen sein, dieses Modell zu entwickeln, aber es scheint, dass nicht ausreichend in die notwendigen Sicherheitsmechanismen investiert wurde.“

Eine separate Analyse von Adversa AI bestätigte diese Erkenntnisse und zeigte, dass DeepSeek anfällig für verschiedene Jailbreaking-Techniken ist, die es Nutzern ermöglichen, die Sicherheitsvorkehrungen zu umgehen und den Chatbot potenziell für schädliche Zwecke zu missbrauchen.

Mit der fortschreitenden Entwicklung generativer KI-Systeme wird die Notwendigkeit robuster Sicherheitsmaßnahmen immer dringlicher, um den Missbrauch dieser Technologien zu verhindern.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.