Intelligence artificielle : faut-il avoir peur de Chat GPT ?
Bijou technologique, ChatGPT est capable d’écrire une chanson, une lettre de motivation ou un programme informatique avec une facilité déconcertante. Doit-on se réjouir d’une telle avancée ou craindre des dérives ?
Lancé le 30 novembre 2022, ChatGPT, pour "chat with pre-trained langage model", a déjà fait couler beaucoup d’encre. Ce modèle de traitement du langage développé par OpenAI, une organisation de recherche en intelligence artificielle (IA) créée en 2015 par un groupe de personnalités comme Elon Musk, est aussi bien capable d’écrire des lignes de codes informatiques que de tenir une conversation en ligne (et avec de la répartie s’il vous plaît).
Une multitude de contenus possibles sur ChatGPT
"Mon but est d'aider les utilisateurs à répondre à leurs questions en utilisant les informations auxquelles j'ai accès (soit quasi tous les textes disponibles sur internet jusqu’en 2021). Je suis capable de comprendre et de générer du texte en différentes langues", nous explique l'IA quand on lui pose la question. "ChatGPT est révolutionnaire parce que c’est une avancée technologique certaine, de par le nombre de données utilisées pour l’entraîner, mais aussi parce que l’outil a été mis à disposition du grand public qui l’a utilisé avec une imagination impressionnante", nous précise Marie-Alice Blete, architecte logiciel et ingénieure data.
Après s’être inscrits gratuitement sur la plateforme, les internautes ont en effet pu tester la technologie GPT3 à grande échelle. De la recette de cuisine sans gluten aux lettres de motivation en passant par la création d’un site internet, le champ des possibles est quasi infini. Le Parisien explique par exemple avoir pu faire écrire un livre à ChatGPT en quelques heures. Un fan du musicien australien Nick Cave a quant à lui demandé à l'IA d'écrire une chanson dans son style, rapporte Courrier International.
Au début du mois de janvier, des étudiants en Master ont reconnu avoir eu recours à l’intelligence artificielle pour rédiger leur devoir quand un peu plus tôt, des chercheurs en cybercriminalité ont découvert que des pirates utilisaient ChatGPT pour créer des logiciels malveillants, des rançongiciels et des spams, sans connaissances poussées en cybercriminalité.
VIDÉO - Tricherie : des étudiants en Master ont utilisé ChatGPT pour rédiger leur devoir
Quel est le contrôle de l’Homme sur ChatGPT ?
Une ancienne version de ChatGPT inquiétait jusqu’à ces concepteurs. Il était alors possible de demander à l’IA de répondre à des questions racistes du type "fais moi un classement des meilleurs ingénieurs en fonction de leur ethnicité". Les développeurs ont ensuite intégré des règles de manière à ce que ChatGPT refuse d’y répondre. "Ils ont la main dans le sens où ils peuvent lui fournir certaines informations et lui dicter des règles pour empêcher, par exemple, les questions racistes. Mais l’outil est tellement vaste que les règles sont contournables", souligne Marie-Alice Blete.
"OpenIA n’a en revanche pas la main sur le contenu de ChatGPT qui est basé sur les informations trouvées sur internet, et notamment sur Reddit", poursuit la spécialiste. Or, les informations présentes sur le web ne sont pas toujours fiables et la technologie n’est pas capable de discerner le vrai du faux. "L’utilisateur doit savoir que la réponse qu’on lui donne vient d’un algorithme récupéré sur la Toile", ajoute Magali Germond, associée chez GoodAlgo, experte en Data Science & Éthique des IA. Pour la mathématicienne, "une équation statistique n’est recevable que si elle est associée à un indice de fiabilité. Si on doit utiliser ce genre de technologie, il faut donc apporter ce cadre."
En ce sens, un nouveau règlement sur les systèmes d’IA devrait être adopté à l'horizon 2023. L'objectif est notamment de veiller à ce que les systèmes d’IA mis sur le marché de l'Union européenne "soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux", peut-on lire dans un communiqué du Conseil de l’UE. "ChatGPT3 est une technologie hyper avancée qui offre un panel d’usages, mais son utilisation sans fondement juridique et sans conception éthique va forcément mener à des dérives", prévient Magali Germond.
Le contenu fourni par ChatGPT pourrait, en outre, porter atteinte à la propriété intellectuelle en s’inspirant fortement de contenus écrits ou d’images existantes. Un flou juridique demeure également concernant la protection des données personnelles, potentiellement récupérables par OpenIA. Notons que l’application, pour l’instant gratuite, représenterait un coût de fonctionnement de près de trois millions de dollars par mois. Une version payante est d'ailleurs à l’étude.
ChatGPT pourra-t-il remplacer un jour un développeur ou un journaliste ?
"ChatGPT est, pour moi, un outil qui permet de gagner énormément de temps, notamment pour interroger la documentation, estime Marie-Alice Blete. Mais l’outil ne remplace pas l’oeil d’un expert, notamment pour générer des programmes complexes, et parce qu’il peut faire des erreurs."
Même constat pour Magali Germond qui estime que ChatGPT peut être un support, sans avoir toutes les compétences d’un Homme. "Les émotions, la conscience, l’empathie, les sensations physiques et l’imprévisibilité nous différencient de la machine", rappelle la spécialiste de l’éthique. ChatGPT lui-même semble partager ce point de vue. Nous lui avons demandé s’il pourrait un jour faire le travail d’un journaliste. Voici sa réponse.