OpenAI n'a pas respecté la loi canadienne sur la protection de la vie privée

Temps de lecture :
1 minute
Par La Presse Canadienne, 2026
OTTAWA — Les autorités fédérales et provinciales chargées de la protection de la vie privée affirment qu'OpenAI n'a pas respecté la législation canadienne lors de l'entraînement de son agent conversationnel ChatGPT, basé sur l'intelligence artificielle.
Ces conclusions figurent dans un rapport présenté mercredi à la suite d'une enquête conjointe menée par le commissaire fédéral à la protection de la vie privée, Philippe Dufresne, et ses homologues de la Colombie-Britannique, de l'Alberta et du Québec.
Ils ont constaté que la collecte d'informations par OpenAI pour entraîner ses modèles était trop large, ce qui a conduit à la compilation et à l'utilisation de données personnelles sensibles.
Les autorités de régulation ont indiqué que cela pourrait inclure des informations sensibles, telles que l'état de santé et les opinions politiques des individus, ainsi que des données concernant des enfants.
L'enquête a révélé qu'OpenAI n'avait pas clairement expliqué que les informations personnelles collectées à partir de sources accessibles au public pouvaient inclure des données provenant des réseaux sociaux, des forums de discussion et d'autres sites internet similaires.
Les autorités de protection de la vie privée ont également affirmé qu'OpenAI n'avait pas suffisamment informé les utilisateurs des inexactitudes potentielles dans les réponses de ChatGPT.
Jim Bronskill et Anja Karadeglija, La Presse Canadienne