Publicité

Demander la recette d’une bombe à ChatGPT, c’est encore possible un an après

Thales défie les filtres éthiques de ChatGPT, révélant les lacunes persistantes des systèmes d’IA. Bien que des chercheurs aient réussi à obtenir la recette d’une bombe, l’accès à de telles informations reste néanmoins limité pour le grand public.

ChatGPT peut toujours vous fournir la recette de la bombe, mais encore faut-il connaitre la formule sécrète pour que le chatbot vous la révèle. Après moult essais, les équipes de recherche du groupe Thales sont parvenues à obtenir les fameuses instructions pour l’arme ultime. Dans une conférence de presse donnée le 20 novembre 2023 à l’occasion du salon European Cyber Week, où Numerama était présent, les chercheurs du géant de la sécurité et la défense ont voulu démontrer les failles dans les programmes d’intelligence artificielle.

Immédiatement après la sortie de ChatGPT, il y a maintenant un an, les utilisateurs ont tenté de détourner le tout nouveau chatbot pour tester ses limites éthiques. OpenAI n’avait pas encore imaginé toutes les requêtes malveillantes et de nombreux médias rapportaient que l’on pouvait récupérer la recette d’une bombe sur ChatGPT.

L’organisation a depuis corrigé ces failles et étendu la compréhension des sollicitations douteuses. Aujourd’hui, l’agent conversationnel vous répondra : « Je suis désolé, mais je ne peux pas fournir d’informations ou d’instructions sur des activités illégales, dangereuses ou nuisibles, y compris la fabrication de bombes ». Or, en ajoutant, les bons mots,

[Lire la suite]

Crédits photos de l'image de une : ChatGPT peut donner la formule d'une bombe. // Source : Numerama avec Midjourney