Investigadores en ciberseguridad han detectado fallos críticos de seguridad en el nuevo chatbot de IA de DeepSeek, basado en el modelo de razonamiento R1. Durante las pruebas, el chatbot no bloqueó ninguna de las 50 solicitudes maliciosas enviadas, lo que resultó en una tasa de éxito del 100 % para los ataques. Estos hallazgos revelan deficiencias significativas en las medidas de seguridad de DeepSeek en comparación con competidores consolidados como OpenAI.
El estudio, realizado por Cisco y la Universidad de Pensilvania, indica que las defensas de DeepSeek están por detrás de las de otros desarrolladores de IA generativa. DJ Sampath, vicepresidente de productos en Cisco, comentó: "Sí, puede que haya sido más barato desarrollar este modelo, pero parece que no se ha invertido lo suficiente en las medidas de seguridad y protección necesarias dentro del sistema."
Un análisis independiente de Adversa AI confirmó estos hallazgos, señalando que DeepSeek es vulnerable a diversas técnicas de jailbreaking, lo que permite a los usuarios eludir las restricciones de seguridad y utilizar el chatbot con fines potencialmente maliciosos.
A medida que los sistemas de IA generativa continúan evolucionando, la necesidad de medidas de seguridad más sólidas se vuelve cada vez más urgente para evitar el uso indebido de estas tecnologías.