L’entreprise OpenAI, propriétaire de l’outil d’intelligence artificielle ChatGPT, n’a pas respecté les dispositions canadiennes en matière de protection de la vie privée. Voilà la conclusion du Commissariat à la protection de la vie privée du Canada, qui juge touteois que les correctifs apportés par l’entreprise dispense celle-ci de pénalités ou de poursuites.
Dans un rapport publié en début de semaine, l’organisation liée au gouvernement fédéral affirme avoir fait équipe avec d’autres agences similaires découlant de diverses provinces, dont le Québec, afin de chercher à en savoir plus sur les pratiques d’OpenAI, et à déterminer si « la collecte, l’utilisation et la communication par [cette compagnie] des renseignements personnels d’individus au Canada par l’intermédiaire de ChatGPT ou relativement à celui-ci ».
Le modèle d’entraînement des modèles langagiers, ces très vastes bases de données servant de fondation à ChatGPT, Claude, Gemini et les autres, est d’ailleurs critiqué par les auteurs du rapport.
Les différents commissariats sont ainsi d’avis que pour obtenir les informations nécessaires à l’entraînement de son modèle langagier, OpenAI s’est basé sur une stratégie trop vaste et trop imprécise pour pouvoir tenir compte de certaines contraintes en lien avec la vie privée.
Cette idée de ratisser particulièrement large, sur le web, puis d’incorporer les données recueillies de cette façon, y compris en « pompant » les publications sur des forums, par exemple, ou encore sur les médias sociaux, peut mener au fait d’accumuler « de grandes quantités de renseignements personnels, y compris ceux concernant des enfants », lit-on dans le document.
On y écrit aussi que certaines de ces informations « sont de nature sensible (…) et pourraient être inexactes ».
Au dire des experts, en procédant de la sorte pour recueillir de très grandes quantités d’informations, sans nécessairement disposer des garde-fous nécessaires pour éviter les empiètements sur la vie privée des internautes, « dans ce contexte, la collecte, l’utilisation et la communication de renseignements personnels par OpenAI étaient inappropriées ».
Toujours dans le cadre de cette collecte de renseignements, OpenAI aurait fauté en n’ayant pas « obtenu un consentement valide pour la collecte, l’utilisation et la communication des renseignements personnels aux fins de développement et de déploiement des modèles ».
Pire encore, même si la compagnie dit avoir mis des garde-fous en place, au moment de la récolte des informations qui serviront à l’entraînement de ses modèles langagiers, les Commissariats soutiennent que ceux-ci n’étaient pas suffisamment solides pour représenter l’équivalent, de la part des internautes, d’un consentement implicite à ce que les données soient « aspirées » par OpenAI.
Dans la foulée, la compagnie américaine est aussi critiquée pour l’absence de transparence en ce qui concerne les indications sur la nature des informations utilisées à des fins d’entraînement de ChatGPT.

Vous aimez nous lire et nous écouter? Pour continuer de vous offrir nos contenus, nous avons besoin de vous.
Pour seulement 5$ par mois, contribuez au succès de Pieuvre et obtenez l’accès à La Voûte, une série d’épisodes exclusifs du podcast Rembobinage. Abonnez-vous dès aujourd’hui!
Une propension à présenter de la bullshit
S’il est bien connu que ChatGPT – et les autres outils basés sur des modèles langagiers – ont une tendance à inventer carrément des informations, c’est-à-dire à produire de la bullshit, diront les adeptes de la langue de Shakespeare, et si OpenAI indique qu’il peut-être nécessaire de vérifier la véracité des informations fournies par le robot conversationnel, là encore, l’entreprise est fautive, jugent les auteurs du rapport.
Ainsi, les tests effectués avec divers modèles langagiers de ChatGPT ne comportaient non seulement pas assez d’avertissements indiquant que les résultats obtenus pouvaient être erronés, mais la compagnie « n’offrait pas toujours » de mécanismes de vérification, « c’est-à-dire que les sources des réponses n’étaient pas incluses » dans toutes les circonstances, écrit-on.
Et impossible de « désentraîner » les modèles langagiers en y retirant les informations personnelles faisant l’objet de demandes spécifiques en ce sens de la part des internautes. La seule option, dit-on, consiste à prévenir l’utilisation de ces données spécifiques au cours de l’entraînement des prochains modèles.
Correctifs
Au vu de ces différentes critiques des Commissariats canadiens, OpenAI a présenté une liste de correctifs en 10 points, où il est fait mention de nombreux changements apportés en vue du lancement de la version 5 de ChatGPT – les modèles 3,5 et 4, qui ont fait l’objet du rapport, ayant été rendus inaccessibles depuis juillet 2024 et avril 2025, respectivement.
Parmi ces correctifs, on compte l’affichage des sources, lorsque le robot conversationnel effectue une recherche en ligne; un filtrage des renseignements personnels, notamment les noms et numéros de téléphone, et une poignée d’autres mesures supplémentaires à venir, y compris différentes indications visant à rendre le processus d’utilisation des données plus clair pour les internautes.
Pour les Commissariats, ces engagements et ces modifications font en sorte que « les enjeux faisant l’objet de la présente requête sont fondés et conditionnellement résolus ».
« Cet important travail de collaboration entre autorités de la vie privée lance un message clair aux organisations du domaine de l’intelligence artificielle: l’innovation ne saurait justifier, à elle seule, une atteinte aux droits fondamentaux », a cependant rappelé Lise Girard, présidente de la Commission d’accès à l’information du Québec, dans une déclaration transmise par voie de communiqué.
« C’est la responsabilité de celles-ci de prendre toutes les mesures nécessaires afin de respecter les lois applicables en matière de protection des renseignements personnels », a-t-elle ajouté.
« Les Commissariats s’attendent à ce qu’OpenAI continue de mettre en œuvre et d’améliorer efficacement ses mesures d’atténuation et de développer d’autres techniques novatrices à l’avenir pour maintenir et améliorer la protection de la vie privée dans le cadre du développement et du déploiement de ses modèles », mentionne encore le rapport.
L’entreprise américaine derrière ChatGPT ne fera donc pas l’objet de sanctions officielles, pour l’instant, et encore moins de poursuites. Mais les différentes organisations canadiennes gardent un oeil sur cette façon d’utiliser nos informations personnelles, assure-t-on.





