OpenAI face à une crise de confidentialité : ChatGPT fabrique des mensonges mortels, les régulateurs européens tiennent l'entreprise responsable
Le chatbot d'OpenAI, ChatGPT, est une fois de plus au cœur de plaintes pour atteinte à la vie privée en Europe après avoir inventé des mensonges mortels sur un utilisateur. La plainte a été déposée par le groupe de défense du droit à la vie privée Noyb, soutenu par un Norvégien choqué d'apprendre que ChatGPT avait inventé une fausse histoire affirmant qu'il avait assassiné deux enfants et tenté d'en tuer un troisième.
Cet incident met en évidence les risques liés à la génération d'informations inexactes par ChatGPT, suscitant de vives inquiétudes quant à la protection des données et à la confidentialité. Noyb soutient que les actions de ChatGPT violent les Règlement général sur la protection des données (RGPD) de l'Union européenne, notamment en ce qui concerne l’exactitude et la correction des données personnelles.
Une « affaire de meurtre fabriquée » choque la communauté locale
L'homme en question, Arve Hjalmar Holmen, a été surpris lorsqu'il a engagé une conversation avec ChatGPT, demandant à l'IA des informations sur lui-même. Au lieu de fournir des détails précis, l'IA a concocté un récit totalement faux, affirmant que Holmen avait été condamné pour le meurtre de deux fils et la tentative d'assassinat d'un troisième. Si la réponse de l'IA était en partie exacte concernant le nombre et le sexe de ses enfants, cette histoire de meurtre inventée était profondément troublante.
Noyb souligne que malgré l'exactitude partielle de certains détails, comme le sexe des enfants et le lieu de résidence de la famille, la fausse allégation de meurtre a causé une détresse émotionnelle importante à Holmen.
Confidentialité et exactitude des données : un test difficile pour le RGPD
L'équipe juridique de Noyb soutient que le RGPD impose clairement l'exactitude des données personnelles et que les individus ont le droit de demander des corrections en cas d'inexactitude. La brève clause de non-responsabilité incluse par OpenAI, indiquant que l'IA pourrait se tromper, ne les exonère pas de toute responsabilité. OpenAI doit assumer la responsabilité de la génération de fausses informations.
Conformément au RGPD, les responsables du traitement des données (en l'occurrence OpenAI) doivent s'assurer que toutes les données personnelles qu'ils traitent sont exactes et que les personnes concernées disposent d'un mécanisme clair pour corriger les erreurs. Cependant, ChatGPT ne propose actuellement aucun moyen de corriger les fausses informations, ce qui peut exposer l'entreprise à des sanctions. En effet, toute violation du RGPD peut entraîner des amendes pouvant atteindre 41 TP3T du chiffre d'affaires annuel mondial d'une entreprise.
Les régulateurs européens renforcent la responsabilité juridique
Cette affaire a suscité une attention particulière de la part des régulateurs européens, de plus en plus préoccupés par les contenus générés par l'IA. Noyb a déposé plainte en Norvège, exhortant les autorités réglementaires compétentes à mener une enquête approfondie sur les pratiques d'OpenAI. D'autres affaires connexes sont également en cours. Par exemple, Régulateur polonais de la protection de la vie privée n'a pas encore publié de réponse formelle au ChatGPT d'OpenAI depuis septembre 2023.
Si certains pays ont adopté une approche plus prudente, affirmant ne pas se précipiter pour interdire purement et simplement les outils d'IA générative, les dangers posés par les informations fabriquées pourraient inciter les régulateurs à changer de position. OpenAI a déjà fait l'objet de mesures réglementaires dans plusieurs pays, dont l'Italie, où l'entreprise a été temporairement bloquée et condamnée à une amende de 15 millions d'euros en 2023 pour non-respect total de la réglementation sur la protection des données.
Problèmes de fabrication de l'IA : de l'éthique aux défis juridiques
Cette affaire souligne une fois de plus les risques potentiels posés par l’IA lorsqu’il s’agit de fabriquer des informations, notamment d’un point de vue éthique et juridique. NoybLes avocats de soutiennent que les entreprises d'IA ne peuvent pas se contenter de clauses de non-responsabilité pour échapper à leur responsabilité. « On ne peut pas simplement ajouter une clause de non-responsabilité disant : "Nous pourrions nous tromper", puis ignorer le préjudice causé », ont-ils déclaré.
À mesure que les outils d'IA se généralisent, on s'inquiète de plus en plus de leur potentiel à porter atteinte à la vie privée et à la réputation des individus. Les entreprises d'IA doivent assumer davantage de responsabilités, non seulement en évitant la diffusion de fausses informations, mais aussi en veillant à ce que ces informations ne soient pas fabriquées.
Réglementation et responsabilité futures : comment OpenAI gérera-t-il les défis en matière de confidentialité ?
La nouvelle plainte de Noyb représente non seulement un défi pour OpenAI, mais aussi un problème commun aux entreprises d'IA du monde entier : comment garantir que leur technologie n'entraîne pas de conséquences juridiques et éthiques dues à des informations falsifiées ? Alors que les régulateurs européens renforcent leur surveillance des outils d'IA, la réponse d'OpenAI à ces défis aura un impact significatif sur sa conformité sur le marché mondial.
À l'avenir, nous pourrions assister à une augmentation des plaintes et des mesures réglementaires en matière de confidentialité, obligeant les entreprises d'IA à privilégier la protection des données et les droits des utilisateurs dès la conception de leurs produits. Trouver un équilibre entre innovation et protection de la vie privée devient rapidement un enjeu crucial pour les entreprises d'IA.