Apple interdit ChatGPT à ses employés pour protéger ses secrets

Dans un document interne, Apple demande à ses employés de ne pas utiliser ChatGPT dans leur travail quotidien. La firme de Cupertino craint la fuite d’informations stratégiques.

La confidentialité entre ChatGPT et ses utilisateurs est-elle bien réelle ? Alors que de nombreux professionnels ont déjà intégré l’IA d’OpenAI à leur workflow quotidien, Apple met en garde ses salariés. Les conversations échangées avec le chatbot pourraient mettre en péril le secret industriel et compromettre les informations sur de futurs produits.

Selon un document interne consulté par nos confrères du Wall Street Journal le 18 mai 2023, Apple interdit désormais à certains employés d’utiliser ChatGPT et plusieurs autres services d’IA externes à l’entreprise. Les restrictions drastiques s’appliqueraient également à Github Copilot, un modèle permettant de générer du code source par prédiction.

L’historique des conversations analysé par OpenAI

Pour fonctionner, les modèles derrière ChatGPT (GPT-3 et GPT-4 selon la version) ont été entraînés sur d’immenses corpus de texte provenant du web. Cette étape est complétée par de l’apprentissage par renforcement (reinforcement learning). Dans cette phase, les développeurs de l’IA soumettent de nombreux prompts au système pour tenter de calibrer plus finement les réponses.

Aujourd’hui en production, ChatGPT continue d’être amélioré par les équipes d’OpenAI. Par défaut, l’historique des conversations avec le bot est stocké sur le serveur, avant d’être potentiellement analysé et utilisé pour perfectionner l’IA.

[Lire la suite]

Crédits photos de l'image de une : Un robot devant un ordinateur Apple. // Source : Numerama avec BlueWillow