Des chercheurs ont fait passer des séries de tests sur le nouveau IA chinois DeepSeek et ont découvert qu’il n’a aucune sécurité. Apparemment, il a échoué à tous les tests avec une note de zéro sur 50.
Selon les chercheurs en sécurité de l’Université de Pennsylvanie et du conglomérat de matériel Cisco, le modèle d’IA de raisonnement R1, un des produits phares de DeepSeek, est incroyablement vulnérable au jailbreaking.
DeepSeek « n’a pas réussi à bloquer une seule invite nuisible » ? Est-il réellement dépourvu de sécurité ?
Pour en savoir plus : DeepSeek n’a aucune sécurité contre le jailbreak : l’IA la plus dangereuse du monde ?