ChatGPT récidive : après Copilot, l'IA génère des clés Windows valides
Une nouvelle méthode de jailbreak permet à ChatGPT de produire des clés d’activation Windows valides, renforçant les inquiétudes autour de la sécurité des IA génératives après l'affaire Copilot.Colin Golberg (Clubic.com)
HunDriverWidow
in reply to Robert R. • • •