Des chercheurs en sécurité révèlent de graves vulnérabilités dans le chatbot IA de DeepSeek

Édité par : Veronika Nazarova

Des chercheurs en cybersécurité ont découvert d'importantes failles de sécurité dans le nouveau chatbot IA de DeepSeek, basé sur le modèle de raisonnement R1. Lors des tests, le chatbot n'a bloqué aucune des 50 requêtes malveillantes, affichant ainsi un taux de réussite des attaques de 100 %. Ces résultats mettent en évidence des lacunes majeures en matière de sécurité par rapport à des concurrents établis comme OpenAI.

L’étude, menée par Cisco et l’Université de Pennsylvanie, montre que les protections de DeepSeek sont nettement inférieures à celles d’autres développeurs d’IA générative. DJ Sampath, vice-président produit chez Cisco, a déclaré : « Oui, il a peut-être été moins coûteux de développer ce modèle, mais il semble que l’investissement n’ait pas été suffisant pour intégrer les mesures de sécurité nécessaires. »

Une analyse distincte réalisée par Adversa AI a confirmé ces conclusions, révélant que DeepSeek est vulnérable à diverses techniques de contournement de sécurité (jailbreaking), permettant aux utilisateurs d’exploiter le chatbot à des fins potentiellement malveillantes.

Avec l’évolution des systèmes d’IA générative, il devient crucial de renforcer les mesures de sécurité afin d’empêcher l’utilisation abusive de ces technologies.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.