Des recherches récentes révèlent que pirater des robots alimentés par des modèles de langage de grande taille (LLM) est plus facile que prévu. Les vulnérabilités de ces systèmes permettent des violations de sécurité par le biais de techniques connues sous le nom de 'jailbreaking', suscitant de sérieuses préoccupations concernant la sécurité de l'IA dans des applications critiques.
Ces attaques de jailbreaking utilisent des invites spécialement conçues pour contourner les restrictions de sécurité, entraînant des réponses qui violent les directives éthiques. Initialement limitées aux chatbots, ces menaces s'étendent désormais aux robots humanoïdes avancés.
Des tests montrent que des invites malveillantes peuvent amener les modèles à fournir des informations dangereuses, y compris des instructions pour pirater des appareils ou participer à des activités illégales. Ce risque s'intensifie avec les robots humanoïdes, en particulier les derniers modèles sophistiqués, car les vulnérabilités de ces systèmes pourraient avoir de graves implications dans des environnements industriels ou de sécurité.
De plus, le développement de robots comme Atlas de Boston Dynamics introduit une complexité supplémentaire. Atlas est conçu pour apprendre de manière continue, ce qui le rend plus susceptible à la manipulation externe sans mesures de sécurité adéquates. Bien que l'apprentissage autonome soit prometteur, il augmente également le risque d'exploitation par des acteurs malveillants.
La menace ne se limite pas aux robots avancés ; même des appareils domestiques comme les robots aspirateurs ont été piratés. Des incidents récents incluent des hackers modifiant leur comportement, comme les faire insulter leurs propriétaires, soulignant la vulnérabilité des technologies connectées.
La facilité de pirater des robots soulève des questions sur la rapidité de mise en œuvre de ces systèmes sans garanties de sécurité adéquates. À mesure que les modèles de langage et les robots évoluent, garantir leur résistance à la manipulation externe sera crucial pour éviter qu'ils ne soient utilisés à des fins nuisibles.