ChatGPT : utilisations et risques en entreprise
9 mai 2023
Depuis sa mise en accès libre sur internet il y a quelques mois, l’agent conversationnel ChatGPT a suscité curiosité et un certain engouement, notamment en entreprise, où il a souvent été testé pour des tâches fastidieuses et récurrentes.
Alors que le logiciel vient tout juste d’être à nouveau autorisé en Italie où il était interdit depuis fin mars, un état des lieux sur les enjeux et risques posés par l’utilisation de ChatGPT en entreprise s’impose.
Â
Qu’est-ce que Chat Generative Pre-trained Transformer, plus couramment appelé « ChatGPT » ?
L’acronyme «ChatGPT» se décompose sémantiquement en deux parties :
-
- « chat » faisant référence aux discussions instantanées ;
-
- et « GPT » peut être traduit comme un transformateur génératif pré-entraîné, en d’autres termes, un agent conversationnel.
Quant à sa finalité, ChatGPT se définit lui-même comme «un programme informatique capable de comprendre et de générer du langage naturel. Le modèle a été entraîné sur un vaste corpus de données linguistiques, qui lui ont permis d’acquérir une compréhension approfondie de la langue, ainsi que des capacités de traitement de texte avancées.Â
 ChatGPT peut être utilisé pour répondre à une variété de questions, générer du texte, traduire d’une langue à une autre, rédiger du contenu, et même pour réaliser des tâches plus complexes telles que l’analyse linguistique. En résumé, ChatGPT est un modèle de langage avancé, capable de comprendre et de produire du langage naturel de manière autonome».
ChatGPT est donc un programme ou un logiciel informatique, dont la première fonction est de produire un texte synthétique en réponse à une question posée, sans qu’une intervention humaine soit nécessaire.
Â
Usages en entreprise
ChatGPT utilise de l’intelligence artificielle (IA) pour générer des textes construits et structurés, relativement proches de ceux qu’un humain pourrait écrire. L’outil se révèle pour l’instant plutôt performant pour la réalisation de tâches facilement automatisables, chronophages et à faible valeur ajoutée, tant pour l’entreprise que pour les salariés.
Certains employeurs ont ainsi testé ses capacités de rédaction dans des domaines diversifiés tels que :
-
- la rédaction d’articles, de comptes-rendus ou encore de mails ;
-
- y compris pour des tâches plus spécialisées, par exemple en gestion des ressources humaines, pour des offres d’emploi, pour l’analyse des CV et des lettres de motivation ou encore la préparation des entretiens.
Certains salariés sont allés jusqu’à intégrer ChatGPT dans leurs outils de travail quotidien, principalement pour éviter des tâches fastidieuses telles que les mails types, la génération de contenu marketing, la recherche de contenu scientifique, ou encore pour la rédaction de messages de prospection commerciale.
Loin de remplacer purement et simplement des emplois, les logiciels d’IA tels que ChatGPT transformeraient le travail en soulageant travailleurs et employeurs de tâches sans valeur ajoutée.
Toutefois, leur utilisation n’est pas sans risque.
Â
Risques et précautions
L’évolution constante de l’utilisation de ChatGPT ne permet pas de dresser un tableau exhaustif des risques que son utilisation engendre ou pourrait engendrer pour une entreprise.
Trois principaux risques peuvent toutefois déjà être identifiés.
⇒ Le premier risque concerne l’absence de confidentialité des données traitées par le logiciel ChatGPT
Les données « publiées » sur ChatGPT par un utilisateur peuvent en effet être réutilisées pour entrainer le logiciel, sans qu’aucune information précise ne lui soit communiquée quant au sort réservé aux données ainsi traitées. Or, comme l’a jugé la «CNIL italienne» lorsqu’elle a suspendu l’utilisation de ChatGPT en Italie, le Règlement Général de la Protection des Données (RGPD) exige que toute personne soit informée de tout traitement des données la concernant, que les données personnelles communiquées soient exactes et que l’âge des utilisateurs puisse être vérifié (1).
Elle en déduisait que le logiciel ne garantissait pas la protection des données à caractère personnel au sens du RGPD. Selon le cas, par précaution, il conviendrait donc de restreindre l’utilisation de ChatGPT aux données non sensibles et publiques ou de l’interdire pour les données privées de l’entreprise, voire de bloquer l’accès à l’outil.
⇒ Le second risque concerne la qualité et la propriété de la réponse fournie par ChatGPT
Contrairement à ce que l’on pourrait croire, ChatGPT ne «répond» pas vraiment aux questions qui lui sont posées : il se contente de synthétiser, dans une formulation proche de celle d’un humain, les réponses qu’il trouve sur internet sur un sujet donné.
Or cette réponse est contextuelle et, selon la manière dont la question est formulée, ChatGPT peut répondre tout et son contraire. Toute personne utilisant ChatGPT risque donc d’obtenir une réponse erronée, dont le bienfondé est difficilement vérifiable dans la mesure où aucune source n’est citée.
Par ailleurs, la propriété des textes produits par ChatGPT n’est pour l’instant pas clairement identifiée (2). Pour prévenir ces situations, il pourrait être utile de modifier la charte informatique de l’entreprise pour rendre obligatoire la déclaration de toute utilisation de ChatGPT par un salarié.
⇒ Le troisième risque posé par l’utilisation de ChatGPT en entreprise est celui de la reproduction de biais et la reprise d’informations fausses, particulièrement élevé pour tout employeur qui envisagerait d’utiliser ChatGPT, pour la gestion de ressources humaines notamment.
En effet, la « réponse » donnée par le logiciel étant basée sur les milliers (voire des millions) de pages web en lien avec la question posée, celui-ci pourrait parfaitement reprendre des informations erronées mais largement relayées sur internet.
En pratique, il est très difficile d’identifier ces biais algorithmiques, car les critères de classement et de formulation évoluent en permanence. Il peut donc être pertinent de réaliser une analyse de risque préalable à toute utilisation de ChatGPT par l’employeur, notamment pour la gestion des ressources humaines.
Si un tel traitement des données des salariés est envisagé, il conviendra d’informer les salariés et très certainement le CSE de cette utilisation et de se rapprocher du délégué à la protection des données (DPO).
Pour toutes ces raisons, l’utilisation de ChatGPT en entreprise doit donc se faire avec précaution et être encadrée :
-
- soit en l’interdisant purement et simplement comme l’ont déjà fait plusieurs entreprises et entités publiques,
-
- soit en imposant, à tout le moins, à quiconque l’utiliserait dans le cadre professionnel d’en informer, selon le cas, l’employeur ou le salarié concerné.
Un encadrement juridique en construction
Les premiers projets de législation sur les outils utilisant l’intelligence artificielle sont récents, la Commission européenne ayant d’abord légiféré par du droit souple en publiant le Livre blanc sur l’intelligence artificielle en février 2020.
Plus récemment, elle a publié deux propositions de textes importants :
-
- une proposition de règlement sur l’intelligence artificielle, intégrant une classification des risques engendrés par les logiciels utilisant l’IA (d’inacceptable à acceptable) ;
-
- une proposition de directive qui vise à traiter des problématiques de responsabilité extracontractuelle liées à l’IA (COM/2022/496 final, 28 sept. 2022).
Au niveau national, le ministre délégué au Numérique a saisi le comité national pilote d’éthique du numérique pour savoir si le droit français était suffisamment protecteur. La CNIL, saisie des premières plaintes à l’encontre de ChatGPT, pourrait bientôt se prononcer sur les limites et l’avenir de l’utilisation de ChatGPT en France.
Quelles que soient les décisions futures, la précaution devra toujours être de mise lors de l’utilisation d’outils technologiques dont le cadre juridique est encore en construction.
Marie-Laure Tredan, Avocat Counsel et Pauline Bousch, Juriste-doctorante CIFRE, CMS Francis Lefebvre Avocats
(1) Respectivement, articles 13, 5, 8 et 25 RGPD
(2) «ChatGPT et la problématique du droit d’auteur», Michel Vivant, La Semaine Juridique Edition Générale, n°13, avril 2023
A lire également
Quand le management devient inadapté : faute ou insuffisance professionnelle?... 25 août 2017 | CMS FL
Vidéosurveillance : la difficile conciliation de la protection des salariés et... 21 janvier 2022 | Pascaline Neymond
Enfants stars des réseaux sociaux : adoption d’une loi protectrice visant... 22 décembre 2020 | Pascaline Neymond
Le RGPD et les RH : comment présenter simplement ce qui semble compliqué ?... 30 août 2018 | CMS FL
Désignation des conducteurs ayant commis une infraction : publication du réfé... 7 mai 2021 | Pascaline Neymond
La nouvelle exception de panorama et la reproduction de l’image de l’immeubl... 29 juin 2017 | CMS FL
L’accès de l’expert-comptable du CSE aux informations individuelles relativ... 18 octobre 2023 | Pascaline Neymond
Droit d’auteur : la loi italienne sur la copie privée à son tour recadrÃ... 8 février 2017 | CMS FL
Articles récents
- L’action en nullité d’un accord collectif est ouverte au CSE
- Complémentaire santé : vigilance sur la rédaction des dispenses d’adhésion
- Précisions récentes sur la portée de l’obligation de sécurité de l’employeur dans un contexte de harcèlement
- La jurisprudence pragmatique du Conseil d’Etat en matière de PSE unilatéral : Délimitation du périmètre du groupe (Partie I)
- Détachement, expatriation, pluriactivité : quelques nouveautés en matière de mobilité internationale
- Avenant de révision-extinction d’un accord collectif : « Ce que les parties ont fait, elles peuvent le défaire »
- Dialogue social et environnement : la prise en compte des enjeux environnementaux à l’occasion des négociations collectives d’entreprise
- L’accès de l’expert-comptable du CSE aux informations individuelles relatives aux salariés lors de la consultation sur la politique sociale de l’entreprise
- Conférence : Sécuriser vos pratiques pour limiter les risques juridiques dans l’entreprise (risque pénal, congés payés, RPS)
- Le recours à un client mystère : une méthode de contrôle loyale à condition d’être transparente
Commentaires