Un utilisateur a intenté un procès contre Perplexity, Google et Meta pour avoir partagé des journaux de discussion sensibles sans consentement. Selon la plainte, le « mode Incognito » de Perplexity est inefficace et ne protège pas les informations personnelles des utilisateurs.
Écouter l’article
Écoutez l’article avec une voix IA naturelle.
IA expliquée
Que révèle l’affaire Perplexity sur la protection des données en IA ?
Perplexity est accusé de partager sans consentement les journaux de discussion sensibles de ses utilisateurs avec Google et Meta, même en mode Incognito. La plainte souligne un manque d’information claire sur ce partage et l’utilisation de traceurs publicitaires. Cette affaire met en lumière les enjeux de transparence et de respect des lois sur la vie privée dans les services d’IA.
- En bref: Perplexity partage des données privées avec des tiers sans informer les utilisateurs, y compris en mode Incognito.
- Pourquoi c’est pertinent: Cela pose des questions sur la conformité aux règles de protection des données, notamment en France avec le RGPD.
- Point clé: La transparence sur le traitement des données est essentielle pour éviter des litiges et préserver la confiance des utilisateurs.

Perplexity et le partage de données sensibles en mode Incognito
La plainte affirme que Perplexity, un moteur de recherche IA, partage l’intégralité des journaux de discussion avec Google et Meta sans que les utilisateurs en soient informés. Cela concerne aussi bien les abonnés que les non-abonnés. Le plaignant, John Doe, prétend que des informations sensibles, notamment financières et médicales, ont été communiquées à ces entreprises. Selon la plainte, la situation est particulièrement problématique pour les non-abonnés, dont les conversations peuvent être accessibles à des tiers via une URL. Le plaignant décrit les traceurs publicitaires comme une « technologie d’écoute basée sur le navigateur » permettant à Google et Meta de surveiller des conversations privées.
Le plaignant exprime son inquiétude quant au partage des données financières de sa famille, utilisant Perplexity pour gérer ses impôts et obtenir des conseils juridiques. La plainte souligne que Perplexity n’informe pas les utilisateurs du partage de leurs données et dissimule sa politique de confidentialité. Cela peut amener les utilisateurs à négliger des détails importants sur la gestion de leurs données. Perplexity est également accusé de violer des lois étatiques et fédérales en ne divulguant pas l’utilisation des traceurs publicitaires. Le plaignant réclame des dommages-intérêts et des sanctions, précisant qu’en l’absence d’une injonction judiciaire, il devra cesser d’utiliser ce moteur de recherche.
Implications pour le marché français
Analyse AIny : Cette affaire souligne l’importance croissante de la protection des données dans les services d’IA. En France, où le RGPD impose des règles strictes, les entreprises doivent veiller à une transparence totale sur le traitement des données personnelles. Les développeurs et sociétés françaises d’IA devront renforcer leurs politiques de confidentialité pour éviter des litiges similaires et maintenir la confiance des utilisateurs.
Source : Ars Technica
Lire aussi : Nouveaux modèles d’IA, vidéo et pression croissante sur la vie privée

